حذر خبراء من أن استخدام الذكاء الاصطناعي «AI» في الرعاية الصحية، قد يخلق حالة من التعقيد القانوني عند محاولة تحديد المسؤولية عن الإخفاقات الطبية.
وبحسب صحيفة «ذا جارديان» البريطانية، يشهد تطوير أدوات الذكاء الاصطناعي في المجال الطبي ازدهاراً كبيراً، حيث ابتكر الباحثون مجموعة واسعة من الأدوات، بدءاً من خوارزميات تفسير الصور الطبية إلى أنظمة المساعدة على التشخيص، وصولاً إلى تطوير حلول لإدارة المستشفيات وتحسين سعة الأسرة وسلاسل الإمداد.
فوائد محتملة ومخاوف قانونية
بينما يرى الخبراء أن التكنولوجيا قد توفر فوائد كبيرة، إلا أنهم أشاروا إلى مخاوف تتعلق بعدم اختبار فاعلية هذه الأدوات بشكل كافٍ، وكذلك إلى صعوبة تحديد المسؤولية في حال حدوث نتائج سلبية للمريض.
وقال البروفيسور ديريك أنغوس من جامعة بيتسبرغ: «سيكون هناك بالتأكيد مواقف يُعتقد فيها أن شيئاً ما قد حدث بشكل خاطئ، وسيبحث الناس عن شخص لتحميله المسؤولية».
صعوبات قانونية وإجرائية
وأوضح البروفيسور غلين كوهين من جامعة هارفارد أن المرضى قد يواجهون صعوبة في إثبات الخطأ في استخدام أو تصميم منتجات الذكاء الاصطناعي.
وأضاف أن هناك عقبات محتملة في الحصول على معلومات حول طريقة عمل النظام داخلياً، وصعوبة اقتراح تصميم بديل معقول، أو إثبات أن النتيجة السلبية سببها النظام نفسه.
كما أشار إلى أن التفاعلات بين الأطراف قد تعقد رفع الدعاوى، حيث يمكن أن يلوم كل طرف الآخر، أو توجد عقود مسبقة تعيد توزيع المسؤولية أو تقاضي تعويضات.
القضاء وإجراءات التقاضي
وأكدت البروفيسورة ميشيل ميللو من جامعة ستانفورد أن المحاكم مجهزة للتعامل مع القضايا القانونية، لكنها أشارت إلى أن العملية ستستغرق وقتاً وستتضمن بعض التفاوتات في البداية، ما يزيد التكاليف لجميع الأطراف المشاركة في تطوير وتبني الذكاء الاصطناعي في القطاع الصحي.
قلق حول تقييم أدوات الذكاء الاصطناعي
يشير التقرير إلى أن العديد من أدوات الذكاء الاصطناعي تعمل خارج إشراف الجهات التنظيمية مثل إدارة الغذاء والدواء الأمريكية، ما يثير تساؤلات حول مدى فاعليتها.
قال أنغوس: «لدى الأطباء، تعني الفاعلية عادة تحسين النتائج الصحية، لكن لا يوجد ضمان بأن السلطات التنظيمية ستطلب إثبات ذلك. وبمجرد نشر الأدوات، يمكن استخدامها بطرق غير متوقعة في بيئات سريرية مختلفة ومع مرضى مختلفين، على أيدي مستخدمين بمستويات مهارات متفاوتة».
ضرورة تمويل تقييم الأداء
يشدد الباحثون على أهمية توفير تمويل لتقييم أداء أدوات الذكاء الاصطناعي بشكل صحيح، مع التركيز على الاستثمار في البنية الرقمية. وأوضح أن الأدوات التي تم تقييمها بشكل أفضل هي الأقل استخداماً، بينما الأدوات الأكثر استخداماً لم تُقيّم بالشكل الكافي، ما يعكس فجوة في اعتماد التكنولوجيا مقابل اختبار فاعليتها.
0 تعليق