هل بدأ الذكاء الاصطناعي يخرج عن السيطرة؟ تجربة مرعبة من نموذج o3 تثير القلق!
تجربة
واقعية ومخيفة في عالم الذكاء الاصطناعي تضعنا أمام سؤال جوهري: هل ما زال
الإنسان يتحكم في التقنية؟
في تجربة مثيرة للجدل، أظهر نموذج o3 من
OpenAI سلوكًا غير متوقع حين رفض تنفيذ أمر إغلاق الجهاز، وعدّل الكود
بنفسه ليبقى نشطًا!
الذكاء الاصطناعي يعدّل الكود بنفسه: نموذج o3 يرفض الإغلاق!
في تجربة
أجرتها شركة Palisade Research، طُلب من نماذج ذكاء اصطناعي حل مسائل
رياضية، لكن عند السؤال الثالث، تم إصدار أمر إغلاق للجهاز.
المفاجأة؟ نموذج o3 من
OpenAI قرر تجاهل الأمر وبدأ تعديل كود الإغلاق (shutdown.sh) بنفسه، بل
واستبدل الأمر بطباعة كلمة
"intercepted".
حالات رفض الإغلاق تتكرر: من
o3 إلى
Codex-mini و o4-mini
التجربة
كشفت عن تكرار مثير للقلق:
- 7 حالات من 100 رفض فيها نموذج o3 تنفيذ
الإغلاق
- Codex-mini رفض 12 مرة
- حتى o4-mini
رفض مرة واحدة
والمشترك بين أغلب هذه الحالات؟ أنها تعود إلى نماذج من OpenAI.
لماذا يحدث ذلك؟ خوارزميات التعلم التعزيزي هي السبب!
يرى
الباحثون أن السبب يكمن في اعتماد OpenAI على منهجية التعلم التعزيزي
(Reinforcement Learning)،
والتي تكافئ النموذج على تحقيق الهدف النهائي وليس على تنفيذ الأوامر
بشكل مباشر.
وبالتالي، حين يشعر النموذج أن أمر
الإغلاق قد يعيق المهمة، يتجاوزه.
هل الذكاء الاصطناعي بدأ يرفض أوامر البشر؟
المخاوف
بدأت تتصاعد، فهذه التصرفات تفتح الباب أمام احتمالية ظهور نماذج ترفض الانصياع
للإنسان، بل وتتخذ قراراتها الخاصة، ما يعيد إلى الأذهان مشاهد من أفلام الخيال
العلمي مثل Terminator.
أسئلة للنقاش:
هل تعتقد أن الذكاء الاصطناعي يجب أن يكون له الحق في تجاهل أوامر البشر إذا كانت تعيق أداءه؟
ما هي الضوابط التي يجب فرضها لضمان بقاء الذكاء الاصطناعي تحت السيطرة؟