فقد عامين من أبحاثه بسبب خطأ بسيط في تطبيق ChatGPT. كان أستاذ علوم النبات في جامعة كولونيا يستخدم النموذج اللغوي لأداء مهام يومية في عمله الأكاديمي، من كتابة رسائل البريد الإلكتروني وتحليل ردود الطلاب إلى مراجعة المنشورات العلمية وتخطيط المحاضرات وإعداد طلبات المنح.

في أغسطس 2025، قرر مارسل بوخر، أستاذ علوم النبات في جامعة كولونيا، تجربة تعطيل مشاركة بياناته مع OpenAI لمعرفة ما إذا كان يمكنه استخدام التطبيق دون إرسال بياناته الشخصية. لكن عند تعطيله، حُذفت جميع محادثاته نهائياً، وفُرغت مجلدات المشروع بالكامل، فاختفى عامان من البحث المنظَّم في لحظة واحدة وبدون أي تحذير.

أفادت المحاولات لاستعادة البيانات عبر المتصفح أو إعادة تثبيت التطبيق بالفشل، فاضطر بوخر إلى اللجوء إلى الدعم الفني. أكّد له فريق الدعم أن البيانات فُقدت نهائياً بسبب ميزة الخصوصية في التطبيق، كما ورد في تقرير موقع IFLScience. وفي مقال نشرته Nature كشف بوخر تفاصيل الكارثة الرقمية التي ألمت به.

أثار الحدث جدلاً واسعاً حول ملكية البيانات وأمان الرقمي في عصر الذكاء الاصطناعي، ولم يتعاطف كثيرون مع بوخر على الإنترنت. علّقت الفيزيائية أنجيلا كولير ساخرة: “كيف يمكن الاعتماد على برنامج دردشة لإعداد طلبات المنح أو التدريس؟”

التداعيات والدروس المستفادة

تؤكد التجربة أهمية الاحتفاظ بنسخ احتياطية مستقلة من الأبحاث ووعي حدود أدوات الذكاء الاصطناعي، إضافة إلى الحاجة لوضوح السياسات التنظيمية لاستخدام الذكاء الاصطناعي في العلوم، لتجنب كوارث رقمية قد تكلف الباحثين سنوات من العمل.

شاركها.
اترك تعليقاً