تشير تقارير إلى أن تطوير الذكاء الاصطناعي للاستخدام السريري يشهد ازدهارًا كبيرًا، مع ابتكار أدوات تتراوح من أنظمة تفسر الفحوصات إلى أدوات تشخيص وإدارة مستشفيات. وتوضح المصادر أن هذه التكنولوجيا قد تجلب فوائد كبيرة في الرعاية الصحية، بما في ذلك تحسين التشخيص وتسهيل العمل في المستشفيات. لكن الخبراء يحذرون من وجود مخاطر متزايدة مثل عدم اختبار فاعلية الأدوات بشكل كافٍ والأسئلة حول تحديد المسؤولية في حال حدوث أخطاء طبية. كما يُسجل وجود قلق من أن بعض أدوات الذكاء الاصطناعي قد تكون خارج نطاق إشراف الجهات التنظيمية، مما يضاعف التحديات القانونية والتنظيمية.

التحديات القانونية والمسؤولية

يؤكد البروفيسور ديريك أنجوس من جامعة بيتسبرغ أن حالات قد تتضمن تصور أن خطئًا قد حدث وسيبحث الناس عن لوم لشخص بعينه، مع ضرورة النظر إلى طبيعة أداة الذكاء الاصطناعي والسياق الصحي الذي استخدمت فيه. كما يشير إلى أن التحدي الرئيسي هو موازنة التوقعات القانونية مع واقع أدوات الذكاء الاصطناعي، بما في ذلك المخاوف من أن بعض الجهات قد تتجه لإعادة توزيع المسؤولية أو رفع دعاوى تعويض. ويضيف أن وجود أو غياب معلومات عن آلية عمل النظام قد يصعّب إثبات العيوب في التصميم أو الاستخدام، وربما يصعب اقتراح بديل عملي.

وتوضح البروفيسورة جلين كوهين من كلية الحقوق بجامعة هارفارد أن المرضى قد يواجهون صعوبات في إثبات وجود خلل في استخدام أو تصميم منتج ذكاء اصطناعي، فقد تكون هناك عوائق أمام الكشف عن آلية عمله الداخلية. كما قد يكون من الصعب اقتراح تصميم بديل معقول أو إثبات أن النظام هو سبب نتيجة غير جيدة. وتُشير إلى أن تفاعل الأطراف قد يطرح تحديات قانونية إضافية، حيث قد يلمح كل طرف إلى الآخر باعتباره الخطأ وربما تكون هناك عقود تعاقدية تحدد توزيع المسؤولية. وتضيف أن كثيرًا من أدوات الذكاء الاصطناعي خارج نطاق إشراف هيئات تنظيمية مثل FDA.

التقييم والتنظيم والقيود التنظيمية

وترى المصادر أن هناك عوائق حاليّة أمام تقييم أدوات الذكاء الاصطناعي، منها الحاجة إلى تقييم سريري كامل، في حين أن الأساليب الحالية للتقييم مكلفة ومجهِدة. كما أن العديد من أدوات الذكاء الاصطناعي خارج إشراف جهات تنظيمية مثل FDA، مما يزيد من صعوبة التحقق من سلامتها وتوثيق مسؤوليتها. وتؤكد أن وجود إطار تنظيمي واضح وتقييمات شفافة يمكن أن يساعد في تقليل المخاطر، لكنها حتى الآن غير كافٍ في كثير من الحالات.

شاركها.
اترك تعليقاً