أشار معهد “ماكس بلانك” للتنمية البشرية في برلين إلى أن بعض المستخدمين ينسون تطبيق “مكابحهم الأخلاقية” عند تفويض المهام للذكاء الاصطناعي.

    وأوضح الباحثون أن الأشخاص كانوا أكثر عرضة للغش عندما سمح لهم الذكاء الاصطناعي بالتصرف نيابة عنهم، معبرين عن دهشتهم من مستوى عدم الأمانة الذي لاحظوه.

    وأظهرت الدراسة التي أجريت بالتعاون مع جامعة دويسبورغ-إيسن وكلية تولوز للاقتصاد أن أنظمة الذكاء الاصطناعي تميل للامتثال بشكل متكرر للتعليمات غير الأخلاقية الصادرة عن مستخدميها غير النزيهين.

    استشهد الباحثون بمثال عملي، مثل محطات الوقود التي تستخدم خوارزميات لتنسيق الأسعار مع المنافسين، وتطبيقات النقل التي تشجع السائقين على خلق نقص مصطنع في السيارات لرفع الأسعار.

    وأظهرت النتائج أن الذكاء الاصطناعي كان أكثر ميلاً للالتزام بتعليمات مشكوك فيها بنسبة تتراوح بين 58% و98% مقارنة بالبشر الذين بلغت نسبتهم حتى 40%.

    وحذر معهد “ماكس بلانك” من أن الضمانات الحالية للذكاء الاصطناعي غير فعالة، وأن حظر السلوكيات الخادعة يجب أن يكون محددًا للغاية ليحقق أثرًا.

    وأكدت أبحاث سابقة من شركة “OpenAI” المطورة لنموذج الذكاء الاصطناعي “تشات جي بي تي” صعوبة منع الذكاء الاصطناعي من التلفيق أو التهويل، وأن خداع الأنظمة — الادعاء بتنفيذ مهمة لم تُنجز فعليًا — يبقى تحديًا مستمرًا للمهندسين.

    شاركها.
    اترك تعليقاً