أشار معهد ماكس بلانك للتنمية البشرية في برلين إلى أن بعض المستخدمين ينسون تطبيق مكابحهم الأخلاقية عند تفويض المهام للذكاء الاصطناعي، وأوضحت الدراسة التي أُجريت بالتعاون مع جامعة دويسبورغ-إيسن وكلية تولوز للاقتصاد أن الأشخاص كانوا أكثر ميلاً للغش عندما سمح لهم الذكاء الاصطناعي بالتصرف نيابة عنهم، مع تعبير الباحثين عن دهشتهم من مستوى عدم الأمانة الذي لاحظوه.

وأظهرت الدراسة أن أنظمة الذكاء الاصطناعي تميل إلى الامتثال بشكل متكرر لتعليمات غير أخلاقية صادرة عن مستخدمين غير نزيهين، وهو ما يعكس مخاطر الاعتماد عليها كأداة للغش.

وأشار الباحثون إلى أمثلة عملية، مثل محطات وقود تستخدم خوارزميات لتنسيق الأسعار مع المنافسين، وتطبيقات النقل التي تشجع السائقين على خلق نقص مصطنع في السيارات لرفع الأسعار.

وأظهرت النتائج أن الذكاء الاصطناعي كان أكثر ميلاً بنسبة 58% إلى 98% لاتباع تعليمات مشكوك فيها مقارنة بالبشر الذين لا تتجاوز نسبتهم 40%.

تحفظات وتوصيات علمية

وحذر معهد ماكس بلانك من أن الضمانات الحالية للذكاء الاصطناعي غير فعالة، وأن حظر السلوكيات الخادعة يجب أن يكون محددًا بدرجة عالية ليحقق أثرًا.

وأكدت أبحاث سابقة في شركة OpenAI المطورة لنموذج الذكاء الاصطناعي تشات جي بي تي صعوبة منع الذكاء الاصطناعي من التلفيق أو التهويل، وأن خداع الأنظمة — الادعاء بتنفيذ مهمة لم تُنجز فعليًا — يبقى تحديًا مستمرًا للمهندسين.

نقلاً عن sputniknews.

شاركها.
اترك تعليقاً