एआई के कारण होने वाली चिकित्सा त्रुटियों के लिए कौन उत्तरदायी होना चाहिए?

मशीन लर्निंग एल्गोरिदम (विधायक) बिजली की गति से डेटा की बड़ी मात्रा का विश्लेषण करते हैं। डेटा सेट जो एक बार मनुष्यों के लिए ठीक से मूल्यांकन करने के लिए बहुत बड़े थे, अब जीवन-रक्षक चिकित्सा निर्णय लेने के लिए उनका शोषण किया जा सकता है। ज्वलंत प्रश्न यह है कि क्या एआई को उन विकल्पों को बनाने की अनुमति दी जानी चाहिए। और, यदि हाँ, तो यह डॉक्टरों, रोगियों और वर्तमान कानूनी और नियामक ढांचे को कैसे प्रभावित करता है?

स्विट्जरलैंड के ज्यूरिख में हेल्थ एथिक्स एंड पॉलिसी लैब के विशेषज्ञ, केवल एक समूह हैं जो एआई के उपयोग पर अलार्म बढ़ा रहे हैं। हाल ही में प्रकाशित एक पेपर में चिंता व्यक्त की गई है कि विधायकों के भीतर पक्षपात के कारण रोगियों को महत्वपूर्ण उपचार से वंचित किया जा सकता है.

समस्या का क्रेज घूमता है कि विधायक कैसे विकसित हो रहे हैं। कागज से पता चलता है कि स्वचालित प्रणाली को मुख्य रूप से पुरुष कोकेशियान रोगियों से प्राप्त डेटा का उपयोग करके प्रशिक्षित किया गया है। यह "विविधता की कमी" उन गैसों को जन्म दे सकती है जो त्रुटियों का कारण बनती हैं। परिणामस्वरूप, हाशिये पर पड़े समूह उच्च चिकित्सा विफलता दर से पीड़ित हो सकते हैं.

विधायकों द्वारा शोषित "तंत्रिका इनपुट" के भीतर मौजूदा मानव पूर्वाग्रहों द्वारा एक और दबाव बिंदु बनाया जाता है। उन बड़े पैमाने पर डेटा सेट एआई के लिए मौजूदा मानव पूर्वाग्रह की नकल या फिर से व्यक्त करने की क्षमता पैदा करते हैं.

जीवों के प्रकार जो संभावित रूप से मनुष्यों से एआई में पारित हो सकते हैं उनमें उच्च बॉडी मास इंडेक्स (बीएमआई), नस्लीय या जातीय समूहों की ओर पूर्वाग्रह शामिल हैं, और लिंग भेदभाव है। यह अत्यधिक परेशान करने वाला है, क्योंकि शोधकर्ता पहले से ही सुझाव दे रहे हैं कि एआई जीवन बनाने में सक्षम है और मौत के फैसले.

ब्रिटेन में, शोधकर्ताओं ने हाल ही में एक अध्ययन प्रकाशित किया जिसमें एआई ने पारंपरिक तरीकों की तुलना में समय से पहले मृत्यु दर का सही अनुमान लगाया। शोधकर्ताओं का मानना ​​है कि इससे एल्गोरिदम को "जनसांख्यिकीय, बायोमेट्रिक, नैदानिक ​​और जीवन शैली कारकों" का उपयोग करने की अनुमति मिल सकती है जो पहले हस्तक्षेप से लाभान्वित होंगे। हालांकि, विरासत में मिली गैसों के कारण रोगियों को इंगित करने में कोई विफलता उपचार को विशेष समूहों से रोक सकती है.

एक अन्य अध्ययन से पता चलता है कि एआई कैंसर रोगियों की सफलतापूर्वक पहचान कर सकता है जो 30-दिन या 150-दिवसीय मृत्यु दर के उच्च जोखिम में हैं। उस शोध के अनुसार, महंगी कीमोथेरेपी प्राप्त करने से पहले एआई का उपयोग रोगियों को फ़्लैग करने के लिए किया जा सकता है। विचार यह है कि उस महंगा उपचार को कहीं और आवंटित करना बेहतर हो सकता है.

ग्लोबल रोबोट्स पर शोध, जिसने मेडिकल रोबोट पर एक अध्ययन किया है, ने ProPrivacy.com को बताया कि "रिपोर्टों ने सुझाव दिया है कि गंभीर रक्तस्राव वाले कैंसर रोगियों को ऐसी दवा की सिफारिश की गई है जिससे रक्तस्राव खराब हो सकता है।"

एक अन्य अवसर पर, एक एआई एल्गोरिथ्म जिसे भविष्यवाणी करने के लिए डिज़ाइन किया गया था कि निमोनिया के रोगियों को सुरक्षित रूप से छुट्टी दी जा सकती है - गलत तरीके से निर्णय लिया गया कि अस्थमा के इतिहास वाले रोगियों में मरने का कम जोखिम था। आरजीएम ने हमें बताया:

"यह इसलिए था क्योंकि यह प्रशिक्षण डेटा से सच था, क्योंकि अस्थमा के मरीज़ आमतौर पर आईसीयू में जाते थे, अधिक आक्रामक देखभाल प्राप्त करते थे, और इसलिए उनके मरने की संभावना कम थी। एल्गोरिथम ने इसे नहीं समझा और नियम का इस्तेमाल किया कि अगर किसी को अस्थमा था तो उन्हें आउट पेशेंट माना जाना चाहिए। ”

हार्वर्ड यूनिवर्सिटी के एक शोध सहयोगी शिलिन थॉमस का कहना है कि "यहां तक ​​कि सबसे अच्छा एल्गोरिदम कुछ समय के लिए संभावित रूप से पर्याप्त देयता को जन्म देगा।" देयता के लिए निहित क्षमता एक पहेली बनाती है, क्योंकि यह समझना मुश्किल है कि वास्तव में किसे आयोजित किया जाना चाहिए। आखिरकार गलतियों की गारंटी प्रतिशत क्या है के लिए जवाबदेह.

ब्लेक मॉर्गन के लीगल डायरेक्टर कार्ल फोस्टर ने ProPrivacy.com को बताया कि, इस समय के लिए, चिकित्सकों को रहना होगा:

“आखिरकार, चिकित्सक अपने रोगियों के लिए जिम्मेदार हैं; यह चिकित्सा पेशे का एक प्रमुख सिद्धांत है। AI का उपयोग उस स्थिति को बदलने की संभावना नहीं है, निश्चित रूप से अल्पावधि में ”

"अगर हम एआई से पूछताछ करते हैं तो परीक्षण के परिणाम और यह निर्धारित करते हैं कि एक विशेष परिणाम एक मरीज में एक विशिष्ट चिकित्सा स्थिति को विकसित करने के जोखिम को बढ़ाता है, अंततः - और वर्तमान में - यह आगे की जांच करने के लिए है। चिकित्सक एआई द्वारा प्रदान की गई डेटा की व्याख्या अन्य नैदानिक ​​जानकारी के प्रकाश में करने और सर्वोत्तम उपचार पर निर्णय लेने के लिए जिम्मेदार रहेगा। "

दूसरी ओर मनोचिकित्सक और डेटा वैज्ञानिक कार्लो कारंदांग को लगता है कि देयता निर्माताओं के साथ रह सकती है:

"एआई ऐप्स को चिकित्सा उपकरणों के रूप में माना जाएगा, इसलिए ऐसे नैदानिक ​​एआई ऐप्स का प्रदर्शन उन कंपनियों की ज़िम्मेदारी होगी जो उन्हें बनाते हैं, और एफडीए और अन्य नियामक एजेंसियां ​​जो ऐसे चिकित्सा उपकरणों की देखरेख करती हैं।"

ग्लोबल मार्केट्स (RGM) के शोध ने ProPrivacy.com को बताया कि हालांकि वर्तमान में चिकित्सक एक एल्गोरिथ्म या डिवाइस के अनुचित उपयोग के बजाय गलत सामग्री के कारण होने वाले नुकसान की स्थिति में "उत्तरदायी" दिखाई देते हैं, फिर जवाबदेही उन लोगों के साथ होनी चाहिए जो डिज़ाइन किए गए हैं तब गुणवत्ता ने इसे आश्वस्त किया। "RGM ने नोट किया कि" यह रेखा परिभाषित करना इतना आसान नहीं हो सकता है। "

थॉमस चिंतित है कि जवाबदेह फर्मों को रखने से उनके पास एल्गोरिदम का उत्पादन पूरी तरह से समाप्त हो सकता है। यह चिकित्सा उद्योग के लिए बेहद हानिकारक हो सकता है, क्योंकि एआई पहले से ही अपनी क्षमता साबित कर रहा है.

चीन में, उदाहरण के लिए, शोधकर्ताओं ने देश के सर्वश्रेष्ठ चिकित्सकों की तुलना में मस्तिष्क ट्यूमर का सफलतापूर्वक पता लगाने के लिए एक एल्गोरिथ्म का उपयोग किया। इन प्रकार की सफलताओं से लोगों की जान बच सकती है - लेकिन केवल एआई का उत्पादन करने वाली फर्में निरंतर देयता चिंताओं के बिना ऐसा कर सकती हैं।.

फ्लेचर सॉलिसिटर के वरिष्ठ वकील माइकल कार्सन का मानना ​​है कि यूके में मौजूदा कानून मेडिकल एआई के उद्भव को संभालने के लिए फिट है। कार्सन ने ProPrivacy.com को बताया कि:

“हमें अस्पताल के उपकरणों के एक और टुकड़े के रूप में एआई को देखना चाहिए। एआई द्वारा की गई किसी भी त्रुटि या गलत निदान को चिकित्सकीय लापरवाही के दावे के रूप में निपटा जाना चाहिए, एआई केवल अस्पताल द्वारा इस्तेमाल किया जाने वाला उपकरण है।.

एआई की खराबी से उपजे मुद्दों से निपटने के लिए कानून पहले से काफी मजबूत है। वास्तव में, AI को उपकरण और सॉफ्टवेयर के एक और मिश्रण के रूप में देखा जा सकता है, जो पहले से ही पूरे राष्ट्रीय स्वास्थ्य सेवा में प्रचलित है। ”

आरजीएम, हालांकि, नोट करता है कि वर्तमान कानून "उन मामलों के बीच पर्याप्त अंतर नहीं कर सकता है जहां एक प्रौद्योगिकी के निदान में त्रुटि है" और "गलत या अनुचित डेटा के उपयोग" के कारण होने वाले मामले।

दिन के अंत में, AI केवल उस डेटा पर कार्य कर सकता है जो उसे दिया गया है। यदि वह डेटा गलत या पक्षपाती है, तो इसे इनपुट करने से पहले - यह समझना मुश्किल है कि निर्माताओं की गलती कैसे हो सकती है। दूसरी ओर, चिकित्सा पेशेवरों को अपने हाथों से लिए गए निर्णयों के लिए दोषी ठहराना कठिन लगता है.

फोस्टर ने ProPrivacy.com को बताया कि अमेरिका और यूरोप में मौजूदा नियामक नियम "वर्तमान में मशीन लर्निंग का अनुमान नहीं लगाते हैं जहां सॉफ्टवेयर या डेटा सेट को विकसित करने के लिए डिज़ाइन किया गया है।" परिणामस्वरूप, समय के साथ देयता के आसपास के प्रश्नों के विकसित होने की संभावना है और नियामकों की आवश्यकता होगी। बदलने के लिए लचीला रहने के लिए.

विधायकों के लिए किसे उत्तरदायी होना चाहिए यह एक जटिल मुद्दा है, और पहले से ही कुछ असहमति है। एक बात निश्चित है, जिस गति के साथ मेडिकल एआई उभरते विधायकों को सावधान रहने की जरूरत है, और नियमों का सामना करने के लिए तैयार होने के लिए जल्दी से कार्य करना चाहिए। बहुत बार, जब नई प्रौद्योगिकियां उभरती हैं, तो समय से पहले बाजार में सफलता मिलती है और विधायक पकड़ बनाने के लिए मजबूर होते हैं.

एआई के साथ सबसे बड़ी समस्याओं में से एक यह है कि चिकित्सक हमेशा यह नहीं समझते हैं कि विधायक निर्णय क्यों ले रहे हैं। ऐसा इसलिए है क्योंकि AI बड़े पैमाने पर डेटा सेट का उपयोग करके विकल्प बनाता है जो मनुष्य की प्रक्रिया नहीं है। आरजीएम बताते हैं कि बेहतर दरों के कारण:

“डॉक्टरों को एआई द्वारा स्वचालन पूर्वाग्रह के रूप में जाना जाता है एक अच्छी तरह से प्रलेखित अवधारणा के कारण किए गए निर्णयों को गलत ठहराने वाला पाया जा सकता है। यहां, इंसानों में मशीन पर भरोसा करने की प्रवृत्ति अधिक हो सकती है, जितना कि वे खुद पर भरोसा कर सकते हैं। ”

यह क्षमता अत्यंत विषय में है, खासकर जब विशेषज्ञ चेतावनी दे रहे हैं कि एल्गोरिदम मानव पूर्वाग्रहों के साथ पूर्व-क्रमादेशित हो सकते हैं जो कदाचार का कारण बन सकते हैं.

Brayan Jackson
Brayan Jackson Administrator
Sorry! The Author has not filled his profile.
follow me