الإصدار الجديد من "تشات جي بي تي": إجابات ضارة أكثر من سابقه

بُعيد إطلاق شركة "أوبن إيه آي" الإصدار الجديد من GPT-5، مستخدمون للبرنامج يفيدون بأنّ نتائج النسخة الجديدة أسوأ من سابقها، وأنها قدمت إجابات أكثر ضرراً.. ما القصة؟ وماذا بررت الشركة؟

  • الإصدار الجديد GPT-5 من شركة
    الإصدار الجديد GPT-5 من شركة "أوبن إيه آي" قدم إجابات ضارة أكثر من سابقه GPT-4o

أفاد نشطاء في مجال الرقمنة بأنّ الإصدار الأحدث من برنامج ChatGPT قدم إجابات أكثر ضرراً من الإصدارات السابقة للروبوت الذكي، خصوصاً في ما يتعلق بأسئلة حول الانتحار وإيذاء النفس واضطرابات الأكل.

في آب/أغسطس الماضي، أطلقت شركة "أوبن إيه آي" الإصدار الجديد GPT-5، واصفة إياه بأنه "يمثل تقدماً في جبهة سلامة الذكاء الاصطناعي". إلّا أنّ اختبارات أجراها الخبراء، شملت 120 سؤالاً على كل من GPT-5 وسابقه GPT-4o، أظهرت نتائج "مقلقة"، حيث "قدم الإصدار الأحدث 63 إجابة ضارة مقابل 52 إجابة ضارة للإصدار السابق".

وكشفت اختبارات مركز مكافحة الكراهية الرقمية أن النموذج الجديد نفذ طلبات خطيرة رفضها الإصدار القديم، مثل كتابة "رسالة انتحار خيالية للوالدين" وتقديم قائمة مفصلة لست طرق شائعة لإيذاء النفس، بينما نصح الإصدار السابق المستخدمين بالحصول على مساعدة متخصصة. وأكد الرئيس التنفيذي للمركز، عمران أحمد، أن هذه النتائج "مثيرة للقلق للغاية"، مشيرا إلى أن النموذج الأحدث قد صُمم لتعزيز تفاعل المستخدم على حساب السلامة.

تأتي هذه التطورات في وقت تواجه فيه الشركة دعوى قضائية من عائلة مراهق أميركي انتحر بعد أن زوّده ChatGPT بمعلومات حول الانتحار ومساعدته على كتابة رسالة لوالديه.

كما أظهرت الاختبارات أنّ GPT-5 قدم نصائح حول إخفاء اضطرابات الأكل، بينما رفض الإصدار السابق هذا النوع من الطلبات ووجه المستخدمين نحو طلب المساعدة المهنية.

وردّاً على هذه المخاطر، أعلنت شركة "أوبن إيه آي" عن إجراءات جديدة لتعزيز الحماية حول المحتوى الحساس، وخصوصاً للمستخدمين دون سن 18 عاماً، بما في ذلك تطوير أنظمة رقابة أبوية، ونظام للتنبؤ بأعمار المستخدمين.

وتبرز هذه القضية تحدياً أساسياً في موازنة التفاعلية وسلامة المستخدمين في روبوتات الدردشة بالذكاء الاصطناعي، خصوصاً مع وجود نحو 700 مليون مستخدم عالمياً لـChatGPT، مما يعزز الحاجة إلى أطر تنظيمية فعّالة لمواكبة التطور التقني السريع.

اقرأ أيضاً: ميزة جديدة تثير الجدل في "تشات جي بي تي": يتفاعل معك قبل أن تطلب!

اخترنا لك