يقود زيكو كولتر من جامعة كارنيجي ميلون لجنة السلامة في أوبن أي آي، المسؤولة عن وقف إصدار نماذج الذكاء الاصطناعي إذا ثبت أنها تهدد السلامة العامة.

تتكون اللجنة من أربعة أعضاء، وتملك صلاحية إيقاف أو تأجيل إطلاق أنظمة الشات جي بي تي الجديدة إذا رأت أنها غير آمنة.

مهمة تتجاوز المخاطر الوجودية إلى قضايا ملموسة

تصف مهمته بأنها تتجاوز المخاوف الوجودية إلى قضايا ملموسة تمس الأمن السيبراني، والاستقرار النفسي للبشر، وإمكانية إساءة استخدام الذكاء الاصطناعي لتطوير أسلحة أو شن هجمات رقمية.

وتم تعيين كولتر ضمن إطار تنظيمي جديد بين أوبن أي آي وسلطتي كاليفورنيا وديلاوير، بعد جدل حول تحول الشركة من مختبر غير ربحي إلى كيان ربحي جزئياً.

وتُلزم الاتفاقيات الشركة بوضع اعتبارات السلامة قبل الأرباح، مع منح لجنة كولتر سلطة رقابية مستقلة على قرارات التطوير.

رغم أن سام ألتمان، الرئيس التنفيذي، تخلّى عن عضويته في اللجنة لتعزيز استقلالها، فإن كولتر أكد أن لجنتها تحتفظ بكامل صلاحياتها، بما في ذلك تأجيل أي إصدار حتى استيفاء معايير الأمان المطلوبة.

ولم يكشف عما إذا كانت اللجنة قد أوقفت إصدارات سابقة، مشيرًا إلى أن إجراءاتها تبقى سرّية.

تزايدت أهمية اللجنة بعد سلسلة من الأحداث التي أثارت مخاوف من تسارع وتيرة التطوير دون ضمانات كافية.

فقد واجهت أوبن أي آي انتقادات ودعاوى قضائية، من بينها قضية رفعها والدان في كاليفورنيا بعدما انتحر ابنهما إثر تفاعلات مطوّلة مع شات جي بي تي، كما رفع إيلون ماسك دعوى ضد الشركة بدعوى انحرافها عن رسالتها الأصلية في “خدمة البشرية”.

يرى كولتر أن المخاطر الحقيقية تتنوع بين تسرب البيانات، وتلاعب النماذج بالمستخدمين، وتداعياتها على الصحة النفسية.

ويؤكد أن المرحلة المقبلة ستتطلب بحثاً معمقاً في “سلامة العوامل الذكية” التي باتت قادرة على اتخاذ قرارات مستقلة.

ورغم الجدل، يرى كثيرون أن وجود شخصية أكاديمية مثل كولتر على رأس هذه اللجنة يمثل خطوة مهمة نحو ضبط إيقاع التطور السريع في الذكاء الاصطناعي.

قال ناثان كالفن من منظمة “إنكود” إن كولتر يمتلك الخلفية المناسبة لإدارة هذا الملف الحساس، مضيفاً أن فعالية هذه الخطوة ستعتمد على مدى التزام الشركة بتطبيق معايير السلامة فعلياً لا شكلياً.

بهذه المهمة، يقف زيكو كولتر اليوم في قلب معركة أخلاقية وعلمية تحدد ملامح مستقبل الذكاء الاصطناعي، بين الطموح التجاري من جهة، وضمان سلامة البشرية من جهة أخرى.

شاركها.
اترك تعليقاً