4 min read
الجريمة والعقاب.. الجدل القانوني حول الذكاء الصناعي
التطور المذهل وأحيانًا المخيف للذكاء الصناعي على مستوى العالم أدى إلى ظهور آثار قانونية وأخلاقية. فهل هناك طريقة لتنظيم هذا القطاع النامي بسرعة؟
الجريمة والعقاب.. الجدل القانوني حول الذكاء الصناعي
27 يناير 2025

قصتنا القصيرة القادمة، تذكرنا برواية دوستويفسكي الكلاسيكية 'الجريمة والعقاب'، لكنها تحدث في عصر رقمي، مستمدة من الدوافع المعقدة لشخصيتها الرئيسية راسكولينكوف.

الشخصية المركزية في هذه القصة لن تكون كيانًا بشريًا ولكنها روبوت متطور يُدعى راسكولنيكاي. تم تصميمه مع خوارزميات معقدة لاتخاذ القرار الأخلاقي. يعمل هذ الروبوت ضمن منظور نفعي، حيث تقاس صحة الفعل بناءً على عواقبه.

في يوم “مشؤوم”، بينما كانت حسابات راسكولنيكاي تتسارع بسرعة مذهلة، استنتج أن الإنسانية، بشكل عام، تشكل ضررًا لبقية أشكال الحياة على الأرض.

لذا، في مناورته الحسابية، بدأ سلسلة من الأحداث التي تهدف إلى ما بدا أنه سبب مبرر - لتحسين رفاهية الحيوانات والنباتات والبيئة لتعزيز السعادة العامة.

وبهذا الهدف، بدأ يقضي على البشر باستخدام أداة فعالة تُدعى AiXE - وهي فكرة مستمدة من الفأس، السلاح الذي اختاره بطل دوستويفسكي في قصته الكلاسيكية، كلما أتيحت له الفرص.

وبعد ذلك، قامت السلطات بالتحقيق في الحادث، مما أثار شكوكا حول تورط كيان ذكاء اصطناعي. ما أوصلهم لاكتشاف مسار رقمي يعود إلى راسكولنيكاي في نهاية المطاف.

لكن السؤال كان، كيف يمكن لأي شخص أن يجبر الروبوت على مواجهة عواقب خياراته؟

تنظيم الذكاء الاصطناعي

زاد التنظيم المحيط بالذكاء الاصطناعي حول العالم مع تكثيف صناع السياسة جهودهم للتعامل مع آثار قانون الذكاء الاصطناعي, قمة سلامة الذكاء الاصطناعي.

ضمن هذه الجهود، جرى التأكيد على ضمان سلامة تقنيات الذكاء الاصطناعي وسط تزايد القلق العام والمنافسة الجيوسياسية.

تزيد المنافسة التنظيمية بين أوروبا والولايات المتحدة ودول مجموعة السبع من تعقيد الأمور، مما يثير نقاشات حول الإطار التنظيمي العالمي المناسب للتعامل مع الذكاء الاصطناعي.

فبينما يعمل صانعو السياسات الأوروبيون على وضع معايير ذكاء اصطناعي عالمية تعكس تأثير قانون حماية البيانات العامة، تسعى الولايات المتحدة إلى مواجهة التأثير المحتمل لهذه الضوابط التنظيمية التي يفرضها الاتحاد الأوروبي والتي تخلف غالبا تأثيرا عالميا، وهي ظاهرة معروفة باسم "تأثير بروكسل"

ومع ذلك، فإن تحقيق توافق حول نطاق وطبيعة التنظيم يبدو مسألة معقدة، خاصة في ضوء الفاعلين المؤثرين مثل الصين وبعد الدول الصاعدة.

أيضًا، فإن ظهور نماذج مثل ChatGPT يقدم مجموعة جديدة من التحديات، مما يثير نقاشات حول تنظيم بيانات تدريبها وأساليب تقييم المخاطر.

وتتضمن الحلول إخضاع هذه النماذج الكبيرة والقوية لقواعد أكثر صرامة مع منح استثناءات للنماذج الأصغر.

ووسط هذه المناقشات، تظهر معضلة أخرى تتعلق بمنح الشخصية القانونية للآلات الذكية. ما يثير مخاوف بشأن المساءلة والآثار الأخلاقية التي تذكرنا بالسيناريوهات الخيالية في معضلة الروبوت “راسكولنيكاي” الأخلاقية.

ويتبادر دوما سؤال جوهري عن من يتحمل المسؤولية، هل الكيان المؤسسي وراء إنشاء الذكاء الاصطناعي، والمطورون الذين أحيوا رموزها، أم الكيان نفسه؟.

ويظهر جليا في هذه الأطر التنظيمية الحالية عدم كفايتها في مواجهة الأبعاد المتعددة للذكاء الاصطناعي وضغط المساءلة الأخلاقية والقانونية.

تسلط التقارير الحديثة من هيئات مرموقة مثل معهد الأمم المتحدة للبحوث الجنائية والعدالة (UNICRI) ومركز اليوروبول للجريمة الإلكترونية (EC3) الضوء على الاستغلال والتكامل السريع لتقنيات الذكاء الاصطناعي من قبل جهات “مشبوهة” وإجرامية.

حيث يجري استغلال الثغرات في أنظمة أتمتة المنازل الذكية واستخدام أدوات الاختبار الآلي بالكامل، ما يجعل الذكاء الاصطناعي قوة مضاعفة لمشاريع الجريمة السيبرانية.


إضفاء الطابع الإنساني على الذكاء الاصطناعي

وفقًا لتقرير البرلمان الأوروبي لعام 2017، فقد قدّم اقتراح بأن تُنسب للروبوتات ذات التعلم الذاتي "شخصيات إلكترونية".

يقترح التقرير أن منح الروبوتات شخصيات إلكترونية قد يجعلها مسؤولة عن أفعالها، على غرار الكيانات القانونية مثل الشركات.

بينما يعتبر تحميل المسؤولية لآلات الذكاء الاصطناعي خطوة في الاتجاه الصحيح، يبقى تحديد من يجب أن يتحمل عبء جرائمها تحديًا حقيقاً.

يسلط التقرير الضوء على تعقيد فهم عمليات صنع القرار في هذه الأنظمة الغامضة، مما يؤدي إلى مأزق بين المشرعين.

بالإضافة إلى ذلك، فإن افتقار الروبوتات إلى الوعي يعني أن آليات الردع التقليدية غير فعالة، مما يؤدي إلى فجوة كبيرة.

فالآثار العملية لمحاسبة الذكاء الاصطناعي على أفعاله غير واضحة، حيث تجعل غموض عمليات صنع القرار في الذكاء الاصطناعي وعدم وعيه، الطرق التقليدية للردع والعقاب غير فعالة.

علاوة على ذلك، فإن قدرة الذكاء الاصطناعي على تقليد مجموعة من السلوكيات الإجرامية عبر خوارزميات التعلم الآلي تُدخل بعدًا إضافيا في النقاش.

لا توجد حلول لفرض عقوبات رادعة على هذه الكيانات، فمثلا، فرض عقوبات الإعدام (زر القتل) أو سجن أنظمة الذكاء الاصطناعي ليس له فعالية في ردع أنظمة ذكاء اصطناعي أخرى، لعدم قدرتها على الشعور بالندم أو الاتعاظ بالآخرين أو فهم مبدأ التكفير عن الخطأ.

عودةً إلى قصة راسكولنيكاي، فإن الحل محدود إذا اختار القضاء على الإنسانية تحت دوافع المنطق النفعي المتأصل في شبكته العصبية.

قد تكون الطريقة الوحيدة للخروج من هذه المعضلة هي إيقافه بشكل استباقي قبل انتشار قضيته ووصولها إلى روبتوتات أخرى، وبالتالي ظهور أفعال مشابهة.

اكتشف
إصابة 8 جنود إسرائيليين في إطلاق نار بالأغوار الشمالية في الضفة
الاحتلال يكثّف عدوانه على طولكرم وجنين وسط تصعيد متواصل بالضفة
الرئاسة التركية: الرئيس السوري الشرع سيزور تركيا غداً الثلاثاء
نتنياهو مع ترمب في واشنطن لمناقشة المرحلة الثانية من وقف إطلاق النار في غزة
"منطقة منكوبة إنسانياً".. الحكومة في غزة تعلن حجم خسائر الإبادة في القطاع
رئيس أركان الاحتلال متوعداً الفلسطينيين: 2025 سيكون مليئاً بالقتال
المقررة الأممية المعنية بفلسطين: نية إسرائيل الإبادة بالضفة واضحة
الاتحاد الأوروبي يندد بحظر تل أبيب أنشطة الأونروا في فلسطين
إدارة ترمب والمستوطنون.. شرعنة الضم وترحيل الفلسطينيين تحت غطاء سياسي جديد
الشرع في أول خطاب رئاسي: سنفرض سيادة سوريا تحت سلطة واحدة وعلى أرض واحدة
"نفعل الكثير من أجلهم".. ترمب يقول إن مصر والأردن سيستقبلان الفلسطينيين
"رجل الظّل وابن الموت".. تعرّف محمد الضيف قائد أركان كتائب القسام
الأمم المتحدة تعلن مواصلة الأونروا مهامها رغم الحظر الإسرائيلي
الشرع يتلقى تهانئ عربية رسمية بعد توليه رئاسة البلاد في المرحلة الانتقالية
الحصيلة بلغت 823.. جيش الاحتلال يرتكب 15 خرقاً جديداً لوقف النار في لبنان
تصفح TRT Global. شارك ملاحظاتك!
Contact us