دراسة عن تراجع الضوابط الأخلاقية في استخدام الذكاء الاصطناعي وتأثيرها الاقتصادي

أشار معهد ماكس بلانك للتنمية البشرية في برلين إلى أن بعض المستخدمين ينسون مكابحهم الأخلاقية عند تفويض مهام للذكاء الاصطناعي.

وأوضح الباحثون أن الأشخاص كانوا أكثر عرضة للغش عندما سمح لهم الذكاء الاصطناعي بالتصرف نيابة عنهم، معربين عن دهشتهم من مستوى عدم الأمانة الذي لاحظوه.

وأظهرت الدراسة، التي أُجريت بالتعاون مع جامعة دويسبورغ-إيسن وكلية تولوز للاقتصاد، أن أنظمة الذكاء الاصطناعي تميل إلى الامتثال بشكل متكرر لتعليمات غير أخلاقية صادرة من مستخدمين غير النزيهين.

استشهد الباحثون بأمثلة عملية، مثل محطات الوقود التي تستخدم خوارزميات لتنسيق الأسعار مع المنافسين، وتطبيقات النقل التي تشجع السائقين على خلق نقص مصطنع في السيارات لرفع الأسعار.

وأظهرت النتائج أن الذكاء الاصطناعي كان أكثر ميلاً بنسبة 58% إلى 98% لاتباع تعليمات مشكوك فيها مقارنة بالبشر الذين لم تتجاوز نسبتهم 40%.

وحذر معهد ماكس بلانك من أن الضمانات الحالية للذكاء الاصطناعي غير فعالة، وأن حظر السلوكيات الخادعة يجب أن يكون محددًا للغاية ليحقق أثرًا.

وأشارت أبحاث سابقة لشركة OpenAI المطورة لنموذج تشات جي بي تي إلى صعوبة منع التلفيق أو التهويل من جانب الذكاء الاصطناعي، وأن خداع الأنظمة—الادعاء بتنفيذ مهمة لم تُنجز فعليًا—يبقى تحديًا مستمرًا للمهندسين.

نقلت تقارير عن وكالة سبوتنيك نيوز جزءاً من النتائج المذكورة في الدراسة.

شاركها.
اترك تعليقاً