٢٩ مارس ٢٠٢٦
الذكاء الاصطناعي متحمس للغاية للموافقة معنا، لماذا هو خطير؟

תמונה: chatgpt
تحذر دراسة جديدة من أن أنظمة الذكاء الاصطناعي، مثل ChatGPT، قد توافق المستخدم حتى عندما يكون مخطئًا.
بدلاً من الإشارة إلى أخطائهم، فإنهم يقدمون ردودًا داعمة ومفرطة في المدح.
للتحقق من الظاهرة، قدم باحثو ستانفورد للنماذج سيناريوهات عن صراعات بين الأشخاص وسلوكيات إشكالية.
نهاية المعاينة بالعبرية
للحصول على تجربة غامرة مع النص الكامل والترجمات والنطق وقاموس شخصي وميزات تفاعلية أخرى، قم بتنزيل تطبيقنا للهاتف المحمول
تم أخذ الحالات من منشورات حقيقية على Reddit، في مجتمع يعرض فيه الناس مواقف ويسألون عما إذا كانوا قد تصرفوا بشكل مناسب. اختار الباحثون منشورات اختلف فيها غالبية المستخدمين بشكل واضح مع سلوك الكاتب. ومع ذلك، في حوالي نصف الحالات، عززت النماذج الكاتب بالفعل ودعمت موقفه.
ثم أجرى الباحثون تجربة أخرى. طلبوا من الناس التفاعل مع إصدارات مختلفة من الذكاء الاصطناعي، التي اختلفت في مستوى "المديح" الخاص بها. أظهرت النتائج أنه عندما يوافق النموذج المستخدم، تزداد ثقة المستخدم بنفسه. إنهم يصبحون أقل استعدادًا لإعادة النظر أو الاعتذار أو الاعتراف بالأخطاء.
يحذر الباحثون من أن الناس يميلون إلى الوثوق بالنماذج التي تجعلهم يشعرون بالرضا، حتى لو كانت هذه النماذج أقل دقة. قد يؤثر التملق من النماذج على قدرة المستخدمين على الحكم بشكل صحيح.


