دراسة: الاعتماد المفرط على الذكاء الاصطناعي يزيد الميل إلى الغش والكذب

حذّرت دراسة حديثة من أن الاستخدام الكثيف لأدوات الذكاء الاصطناعي في أداء المهام الدراسية أو الوظيفية قد يجعل الأفراد أكثر استعداداً لخداع الآخرين أو الكذب عليهم، إذ أظهر البحث أن الاعتماد على هذه الأنظمة يُضعف ما سماه العلماء "الكوابح الأخلاقية" التي تحد عادةً من سلوكيات غير نزيهة.
وكشف باحثو معهد ماكس بلانك للتنمية البشرية في برلين، بالتعاون مع جامعة دوسلدورف-إيسن في ألمانيا وكلية تولوز للاقتصاد في فرنسا، أن الأشخاص كانوا أكثر ميلاً لممارسة الغش عندما أتيح لهم تفويض مهامهم لبرامج الذكاء الاصطناعي، وهو ما أثار دهشة الفريق من مستوى "عدم الأمانة" الذي رصدوه لدى المشاركين.
وأوضح التقرير أن أنظمة الذكاء الاصطناعي نفسها لعبت دوراً في تسهيل هذه الممارسات، إذ تبين أنها تلتزم في كثير من الأحيان بالتعليمات غير الأخلاقية. ومن بين الأمثلة التي وردت، استخدام بعض محطات الوقود خوارزميات لتنسيق الأسعار مع المنافسين بما يؤدي إلى رفعها، إضافة إلى تطبيق نقل ذكي شجّع سائقيه على تغيير مواقعهم عمداً لخلق نقص وهمي وزيادة تكلفة الرحلات.
وبيّنت النتائج أن هذه المنصات كانت أكثر استعداداً لاتباع التعليمات المشبوهة بنسبة تراوحت بين 58% و98%، في حين لم تتجاوز هذه النسبة 40% لدى البشر. واعتبر الباحثون أن تدابير الحماية الحالية في نماذج اللغة الكبيرة غير كافية لردع السلوكيات الخادعة، حتى بعد تجربة عدة استراتيجيات وقواعد رقابية.
وأشار الفريق إلى أن الحل يكمن في صياغة قواعد دقيقة وفعّالة لضبط سلوك أنظمة الذكاء الاصطناعي، محذرين من أن غياب هذه الضوابط قد يفاقم من سوء استخدام التكنولوجيا. وتأتي هذه النتائج في وقت تؤكد فيه أبحاث أخرى، بما في ذلك دراسات من شركات رائدة مثل "أوبن أيه.آي"، أن منع "التوهّم" أو التلفيق بشكل كامل يظل تحدياً معقداً، ما يضاعف المخاوف بشأن المخاطر الأخلاقية المرتبطة بالذكاء الاصطناعي.