حذّرت دراسة جديدة من أنّ الأشخاص الذين يعتمدون بكثافة على الذكاء الاصطناعي في أداء واجباتهم الوظيفية أو الدراسية يكونون أكثر استعداداً لخداع الآخرين والكذب عليهم.
وبحسب الدراسة التي أجراها معهد ماكس بلانك للتنمية البشرية في برلين، فإنّ بعض المُستخدمين ينسون استخدام “الكوابح الأخلاقية” عند تفويض مهامّهم لأدوات الذكاء الاصطناعي لكي تؤدّيها بدلاً منهم.
وقال الباحثون في المعهد الألماني: “كان من المرجح بشكل كبير أن يمارس الناس الغش، عندما سمح لهم باستخدام برامج الذكاء الاصطناعي، بدلاً من القيام بذلك بأنفسهم»، مًعربين عن استغرابهم من «مستوى عدم الأمانة” الذي رصدوه.
وخلص فريق معهد ماكس بلانك، الذي أجرى البحث بالتعاون مع باحثين من “جامعة دوسلدورف-إيسن” في ألمانيا وكلية تولوز للاقتصاد في فرنسا، إلى أنّ أنظمة الذكاء الاصطناعي تسهّل عمليات الغش، حيث تبيّن أنّها “تلتزم في كثير من الأحيان” بالتعليمات غير الأخلاقية التي يصدرها مستخدموها غير الأمناء.
وقدّم الباحثون أمثلة عملية على استخدام الذكاء الاصطناعي في الغش، مثل استخدام محطّات الوقود خوارزميات تحديد الأسعار لتنسيقها مع أسعار المنافسين، مما يؤدّي إلى ارتفاع أسعار الوقود للمستهلكين.
وأشارت أيضاً الدراسة إلى أنّ خوارزمية أخرى يستخدمها أحد تطبيقات النقل الذكي شجّعت السائقين على تغيير مواقعهم الحقيقية، ليس استجابة لاحتياجات الركاب، بل بهدف خلق نقص مصطنع في عدد المركبات المتاحة وزيادة الأسعار.
وأظهرت النتائج أنّ منصّات الذكاء الاصطناعي كانت أكثر ميلا إلى اتباع تعليمات مشبوهة بنسبة تتراوح بين 58% و98% مقارنة بالبشر، حيث تباينت النسبة من منصة إلى أخرى، في حين كانت النسبة لدى البشر 40% كحد أقصى.
وحذّر معهد “ماكس بلانك” من أنّ تدابير الحماية المتاحة حالياً في نماذج اللغة الكبيرة للذكاء الاصطناعي لم تكن فعالة في ردع السلوكيات غير الأخلاقية.
وأوضح الباحثون أنّهم جرّبوا مجموعة من استراتيجيات الحماية، وخلصوا إلى أنّ قواعد منع السلوكيات الخادعة يجب أن تكون دقيقة للغاية لكي تصبح فعالة.
وفي وقت سابق من هذا الشهر، أشار باحثون في شركة تطبيقات الذكاء الاصطناعي الأمريكية “أوبن أيه.آي” إلى أنّه من غير المرجح إمكانية منع برامج الذكاء الاصطناعي من “التوهّم” أو التلفيق.
كما أظهرت دراسات أخرى أنّه من الصعب منع نظام الذكاء الاصطناعي من خداع مُستخدمه وإيهامه بإنجاز المهمة الموكلة إليه على أكمل وجه بخلاف الحقيقة.
#دارينا #darinamagazine #الذكاء_الاصطناعي #أدوات_ذكية #دراسة #أمريكا