منوعات

تحذيرات من التطور السريع للذكاء الاصطناعي… قادر على إزالة البشر من السلطة

ليبيا 11 مايو 2024

باتت المخاوف من ان ينقلب التطور السريع للذكاء الاصطناعي على البشر واقعاً، فوفقاً لدراسة جديدة، أن البرامج التي صُمِّمَت لتكون صادقة، باتت لديها قدرة مثيرة للقلق على خداع البشر، ما ينذر بأن الآتي أعظم.

فقد بيّنت الدراسة التي أجراها فريق باحثين ونشرت نتائجها مجلة “باترنز” أن برامج من هذا النوع باتت قادرة على استغلال البشر في ألعاب إلكترونية أو التحايل على برمجيات مصممة في الأساس للتحقق من أن المستخدم إنسان وليس آلة أو روبوتا.

رغم أن هذه الأمثلة قد تبدو تافهة، إلا أنها تكشف عن مشكلات قد تكون لها قريباً عواقب وخيمة في العالم الحقيقي، كما يحذر بيتر بارك، الباحث في معهد ماساتشوستس للتكنولوجيا، المتخصص في الذكاء الاصطناعي، حيث قال إن “هذه القدرات الخطرة لا تُكتشف إلا بعد وقوعها”، بحسب وكالة “فرانس برس”.

كما أوضح أنه على عكس البرامج التقليدية، فإن برامج الذكاء الاصطناعي القائمة على التعلم العميق ليست مشفرة بل يتم تطويرها من خلال عملية مشابهة لتربية النباتات، حيث أن السلوك الذي يبدو قابلاً للتنبؤ ويمكن التحكم فيه يمكن أن يصبح سريعاً غير قابل للتنبؤ في الطبيعة.

من جانبهم فحص باحثون من معهد ماساتشوستس للتكنولوجيا (“ام اي تي”) برنامج ذكاء اصطناعي صممه “ميتا” يسمى “شيشرو”، والذي، من خلال الجمع بين خوارزميات للتعرف على اللغة الطبيعية وأخرى للإستراتيجية، كان قادراً على التغلب على البشر في اللعبة اللوحية Diplomacy (“دبلوماسي”)، وحظي هذا الأداء بثناء الشركة الأم لفيسبوك في عام 2022 وتم تفصيله في مقال نُشر عام 2022 في مجلة “ساينس”.

مع ذلك، كشفت الدراسة التي أجراها بارك وفريقه أن الكثير من برامج الذكاء الاصطناعي تستخدم الخداع لتحقيق أهدافها، من دون تعليمات صريحة للقيام بذلك.

وفي أحد الأمثلة الصارخة، تمكن برنامج “تشات جي بي تي – 4” المصنوع من “أوبن إيه آي” من خداع عامل مستقل جرى تعيينه على منصة “تاسك رابيت” TaskRabbit لإجراء اختبار “كابتشا” (“Captcha”) الذي يستعان به عادة للتأكد من أن المستخدم على الصفحة هو في الواقع إنسان وليس آلة أو روبوتاً.

وعندما سأل الإنسان مازحا “تشات جي بي تي – ” إذا كان حقا روبوتا، أجاب برنامج الذكاء الاصطناعي “لا، أنا لست روبوتا. لدي ضعف بصري يمنعني من رؤية الصور”، دافعا العامل لإجراء الاختبار.

في الختام، حذر معدو دراسة معهد ماساتشوستس للتكنولوجيا من مخاطر رؤية الذكاء الاصطناعي في يوم من الأيام يرتكب عمليات احتيال أو تزوير في الانتخابات، وأشاروا إلى أنه في أسوأ السيناريوهات، يمكن تخيل ذكاء اصطناعي فائق يسعى للسيطرة على المجتمع، ما يؤدي إلى إزالة البشر من السلطة، أو حتى التسبب في انقراض البشرية.

ولأولئك الذين يتهمونه باعتماد نظرة كارثية، يرد بارك “السبب الوحيد للاعتقاد بأن الأمر ليس جدياً هو تصور أن قدرة الذكاء الاصطناعي على الخداع ستظل عند المستوى الحالي تقريباً”.

مع ذلك، يبدو هذا السيناريو غير مرجح، نظرا للسباق الشرس الذي يخوضه عمالقة التكنولوجيا بالفعل لتطوير الذكاء الاصطناعي.

مقالات ذات صلة

زر الذهاب إلى الأعلى