من يجب أن يكون مسؤولاً عن الأخطاء الطبية التي تسببها منظمة العفو الدولية؟

تقوم خوارزميات التعلم الآلي (MLAs) بتحليل كميات هائلة من البيانات بسرعة البرق. يمكن الآن استغلال مجموعات البيانات التي كانت كبيرة جدًا بالنسبة للبشر لتقييمها بشكل صحيح لاتخاذ القرارات الطبية المنقذة للحياة. السؤال الملح هو ما إذا كان ينبغي السماح لمنظمة العفو الدولية باتخاذ تلك الخيارات. وإذا كان الجواب نعم ، كيف يؤثر ذلك على الأطباء والمرضى والأطر القانونية والتنظيمية الحالية?

خبراء في أخلاقيات الصحة والسياسة مختبر في زيوريخ ، سويسرا ، هي مجرد مجموعة واحدة بدأت تثير القلق حول استخدام الذكاء الاصطناعى. تعرب ورقة منشورة مؤخرًا عن قلقها من احتمال حرمان المرضى من العلاجات الحيوية بسبب التحيزات داخل MLAs.

يدور جوهر المشكلة حول كيفية تطوير الامتيازات. تشير الورقة إلى أن الأنظمة الآلية قد تم تدريبها بشكل أساسي باستخدام البيانات المستخرجة من مرضى القوقاز الذكور. هذا "الافتقار إلى التنوع" يمكن أن يؤدي إلى تحيزات تسبب أخطاء. نتيجة لذلك ، قد ينتهي الأمر بالمجموعات المهمشة إلى ارتفاع معدلات الفشل الطبي.

يتم إنشاء نقطة ضغط أخرى عن طريق التحيزات البشرية الموجودة داخل "المدخلات العصبية" التي تستغلها MLAs. مجموعات البيانات الضخمة هذه تخلق إمكانات الذكاء الاصطناعي لمحاكاة أو إعادة التعبير عن التحيزات البشرية الموجودة.

تشمل أنواع التحيزات التي يمكن أن تنتقل من البشر إلى الذكاء الاصطناعي التحيزات تجاه ارتفاع مؤشر كتلة الجسم (BMI) ، والمجموعات العرقية أو الإثنية ، والتمييز بين الجنسين. قرارات الموت.

في المملكة المتحدة ، نشر الباحثون مؤخرًا دراسة تنبأت فيها منظمة العفو الدولية بالوفيات المبكرة بشكل أفضل من الطرق التقليدية. يعتقد الباحثون أن هذا قد يسمح للخوارزميات باستخدام "العوامل الديموغرافية والبيومترية والسريرية ونمط الحياة" لفرد المرضى الذين سيستفيدون من التدخل السابق. ومع ذلك ، فإن أي فشل في تحديد المرضى بسبب التحيزات الموروثة قد يتسبب في حجب العلاج من مجموعات معينة.

تشير دراسة أخرى إلى أنه يمكن لمنظمة العفو الدولية التعرف بنجاح على مرضى السرطان المعرضين لخطر كبير للوفاة لمدة 30 يومًا أو 150 يومًا. وفقًا لهذا البحث ، يمكن استخدام الذكاء الاصطناعي لتعليم المرضى قبل تلقي العلاج الكيميائي باهظ التكلفة. الفكرة هي أنه قد يكون من الأفضل تخصيص تلك المعاملة الباهظة الثمن في مكان آخر.

أخبرت الأبحاث التي أجريت على الأسواق العالمية ، والتي أجرت دراسة على الروبوتات الطبية ، ProPrivacy.com أن "التقارير تشير إلى أن مرضى السرطان الذين يعانون من نزيف حاد قد أوصوا بتناول دواء يمكن أن يتسبب في تفاقم النزيف."

في مناسبة أخرى ، خوارزمية الذكاء الاصطناعي مصممة للتنبؤ بأية مرضى بالتهاب رئوي يمكن تصريفهم بأمان - قرر بشكل خاطئ أن المرضى الذين لديهم تاريخ من الربو لديهم خطر أقل من الوفاة. أخبرنا RGM:

"كان هذا لأنه كان صحيحًا من بيانات التدريب ، لأن مرضى الربو كانوا عادة يذهبون إلى وحدة العناية المركزة ، وتلقوا رعاية أكثر عدوانية ، وبالتالي كانوا أقل عرضة للموت. لم تفهم الخوارزمية هذا واستخدمت القاعدة القائلة بأنه إذا كان شخص ما مصاب بالربو ، فينبغي معاملته كمريض خارجي ".

تشير شيلين توماس ، زميلة أبحاث بجامعة هارفارد إلى أنه "حتى أفضل الخوارزميات سوف تؤدي إلى تحمل قدر كبير من المسؤولية بعض الوقت". هذا الاحتمال الملازم للمسؤولية يخلق لغزًا ، لأنه من الصعب فهم من يجب أن يحتجز بالضبط مسؤولة عن ما هو في نهاية المطاف نسبة مضمونة من الأخطاء.

صرح كارل فوستر ، المدير القانوني في Blake Morgan ، لـ ProPrivacy.com أنه في الوقت الحالي ، سيبقى الأطباء مسئولين:

"في النهاية ، الأطباء مسؤولون عن مرضاهم ؛ إنه مبدأ مهيمن على مهنة الطب. من غير المرجح أن يؤدي استخدام الذكاء الاصطناعي إلى تغيير هذا الموقف ، وبالتأكيد على المدى القصير "

"إذا تخيلنا نتائج اختبار استقصاء الذكاء الاصطناعي وتحديد أن نتيجة معينة تزيد من خطر الإصابة بحالة طبية معينة في المريض ، في النهاية - وفي الوقت الحالي - يجب على الطبيب إجراء مزيد من التحقيق. سيظل الطبيب مسؤولاً عن تفسير البيانات التي تقدمها منظمة العفو الدولية في ضوء المعلومات السريرية الأخرى ، والتوصل إلى قرار بشأن أفضل علاج ".

من ناحية أخرى ، يرى الطبيب النفسي وعالم البيانات كارلو كاراندانغ أن المسؤولية يمكن أن تقع على عاتق الشركات المصنعة:

"سيتم التعامل مع تطبيقات الذكاء الاصطناعي كأجهزة طبية ، وبالتالي فإن أداء تطبيقات الذكاء الاصطناعي هذه سيكون مسؤولية الشركات التي تبنيها ، وإدارة الأغذية والعقاقير والوكالات التنظيمية الأخرى التي تشرف على هذه الأجهزة الطبية."

قال البحث في الأسواق العالمية (RGM) لـ ProPrivacy.com إنه على الرغم من أن الأطباء في الوقت الحالي لا يزالون يتحملون المسؤولية "في حالة حدوث ضرر ناتج عن محتوى غير صحيح بدلاً من الاستخدام غير الصحيح لخوارزمية أو جهاز ، فإن المساءلة يجب أن تقع على عاتق أولئك الذين صمموا و ثم أكدت الجودة ذلك. "تلاحظ RGM أن" هذا الخط قد لا يكون من السهل تحديده. "

يشعر توماس بالقلق من أن الشركات القابضة مسؤولة يمكن أن تؤدي إلى الإقلاع عن إنتاج الخوارزميات تمامًا. قد يكون ذلك ضارًا جدًا بالصناعة الطبية ، لأن الذكاء الاصطناعي يثبت بالفعل إمكاناته.

في الصين ، على سبيل المثال ، استخدم الباحثون خوارزمية للكشف عن أورام الدماغ بنجاح أكبر من أفضل الأطباء في البلاد. ويمكن لهذه الأنواع من الاختراقات أن تنقذ الأرواح - ولكن فقط إذا كانت الشركات التي تنتج الذكاء الاصطناعى يمكنها فعل ذلك دون مخاوف مستمرة بشأن المسؤولية.

يعتقد مايكل كارسون ، المحامي الرئيسي في Fletchers Solicitors ، أن التشريعات الحالية في المملكة المتحدة مناسبة للتعامل مع ظهور الذكاء الاصطناعى الطبي. قال كارسون لـ ProPrivacy.com:

"يجب أن نعتبر الذكاء الاصطناعي مجرد قطعة أخرى من معدات المستشفى. يجب التعامل مع أي أخطاء أو خطأ في التشخيص من قبل منظمة العفو الدولية كادعاء إهمال طبي ، حيث أن الذكاء الاصطناعي مجرد أداة تستخدمها المستشفى.

"من المحتمل أن يكون القانون قويًا بالفعل بما يكفي للتعامل مع القضايا الناشئة عن أعطال الذكاء الاصطناعي. في الواقع ، يمكن اعتبار الذكاء الاصطناعي مجرد مزيج آخر من المعدات والبرمجيات ، وهو سائد بالفعل في جميع أنحاء الخدمة الصحية الوطنية. "

ومع ذلك ، تلاحظ RGM أن التشريع الحالي قد لا يميز بشكل كافٍ بين "الحالات التي يوجد فيها خطأ في تشخيص خلل في التكنولوجيا" والحالات الناجمة عن "استخدام بيانات غير دقيقة أو غير مناسبة".

في نهاية اليوم ، يمكن أن تعمل الذكاء الاصطناعي فقط على البيانات التي يتم تقديمها. إذا كانت هذه البيانات غير صحيحة أو متحيزة ، قبل إدخالها - فمن الصعب فهم كيف يمكن للمصنعين أن يكونوا على خطأ. من ناحية أخرى ، يبدو من الصعب إلقاء اللوم على المهنيين الطبيين في القرارات المتخذة من أيديهم.

قال فوستر لـ ProPrivacy.com إن الأنظمة التنظيمية الحالية في الولايات المتحدة وأوروبا "لا تتوقع حاليًا التعلم الآلي حيث يتم تصميم البرنامج أو مجموعات البيانات للتطور." ونتيجة لذلك ، من المحتمل أن تتطور الأسئلة المحيطة بالمسؤولية بمرور الوقت وأن المنظمين سيحتاجون لتبقى مرنة للتغيير.

من يجب أن يكون مسؤولاً عن MLAs هو مشكلة معقدة ، وهناك بالفعل بعض الخلاف. هناك شيء واحد يبدو مؤكدًا ، نظرًا للسرعة التي تظهر بها منظمة العفو الدولية في المجال الطبي ، يجب أن يكون المشرعون حذرًا ، ويجب عليهم التحرك بسرعة لضمان إعداد اللوائح للتعامل معها. في كثير من الأحيان ، عندما تظهر تقنيات جديدة ، فإن الاختراقات تضرب السوق قبل الأوان ويضطر المشرعون إلى اللحاق بالركب.

واحدة من أكبر المشكلات في الذكاء الاصطناعي هي أن الأطباء لا يفهمون دائمًا سبب اتخاذ MLAs القرارات. وذلك لأن منظمة العفو الدولية تقوم باختيارات باستخدام مجموعات البيانات الضخمة التي لا يستطيع البشر معالجتها. يوضح RGM ذلك بسبب تحسن معدلات النجاح:

"قد يجد الأطباء أنفسهم يبررون بشكل غير صحيح القرارات التي اتخذتها منظمة العفو الدولية بسبب مفهوم موثق جيدًا يعرف باسم التحيز التلقائي. هنا ، يمكن أن يميل البشر إلى الثقة في آلة أكثر مما يثقون في أنفسهم ".

هذه الإمكانية تثير قلقًا كبيرًا ، لا سيما عندما يحذر الخبراء من أن الخوارزميات قد تأتي مبرمجة مسبقًا مع تحيزات بشرية يمكن أن تسبب سوء التصرف.

Brayan Jackson
Brayan Jackson Administrator
Sorry! The Author has not filled his profile.
follow me