Ποιος πρέπει να είναι υπεύθυνος για ιατρικά σφάλματα που προκαλούνται από το AI;

Οι Αλγόριθμοι Μηχανικής Μάθησης (MLA) αναλύουν τεράστιες ποσότητες δεδομένων σε ταχύτητες αστραπής. Τα σύνολα δεδομένων που ήταν κάποτε πολύ μεγάλα για να αξιολογήσουν σωστά οι άνθρωποι μπορούν πλέον να αξιοποιηθούν για να κάνουν ιατρικές αποφάσεις που σέβονται τη ζωή. Το καίγοντας ερώτημα είναι αν πρέπει να επιτραπεί η ΑΙ να κάνει αυτές τις επιλογές. Και, εάν ναι, πώς επηρεάζει τους γιατρούς, τους ασθενείς και τα ισχύοντα νομικά και κανονιστικά πλαίσια?


Οι εμπειρογνώμονες του Εργαστηρίου Ηθικής και Πολιτικής για την Υγεία στη Ζυρίχη, Ελβετία, είναι μόνο μία ομάδα που αρχίζει να προκαλεί ανησυχία για τη χρήση του ΑΙ. Ένα πρόσφατα δημοσιευθέν έγγραφο εκφράζει την ανησυχία ότι οι ασθενείς θα μπορούσαν να αρνούνται ζωτικές θεραπείες εξαιτίας των μεροληψιών εντός των MLA.

Η ουσία του προβλήματος περιστρέφεται γύρω από τον τρόπο με τον οποίο αναπτύσσονται τα MLA. Το έγγραφο υποδηλώνει ότι τα αυτοματοποιημένα συστήματα έχουν εκπαιδευτεί κατά κύριο λόγο χρησιμοποιώντας στοιχεία που εξάγονται από αρσενικούς καυκάσιους ασθενείς. Αυτή η "έλλειψη πολυμορφίας" μπορεί να οδηγήσει σε προκαταλήψεις που προκαλούν σφάλματα. Ως αποτέλεσμα, οι περιθωριοποιημένες ομάδες ενδέχεται να καταλήξουν να υποφέρουν από υψηλότερα ποσοστά ιατρικής αποτυχίας.

Ένα άλλο σημείο πίεσης δημιουργείται από τις υπάρχουσες ανθρώπινες προκαταλήψεις μέσα στις "νευρικές εισόδους" που εκμεταλλεύονται τα MLA. Αυτά τα τεράστια σύνολα δεδομένων δημιουργούν το δυναμικό για το AI να μιμείται ή να επαναλάβει τις υπάρχουσες ανθρώπινες προκαταλήψεις.

Τα είδη των μεροληψιών που θα μπορούσαν ενδεχομένως να περάσουν από τον άνθρωπο στον ΑΙ περιλαμβάνουν προκαταλήψεις για υψηλό δείκτη μάζας σώματος (ΔΜΣ), φυλετικές ή εθνοτικές ομάδες και διακρίσεις λόγω φύλου. Αυτό είναι ιδιαίτερα ανησυχητικό, διότι οι ερευνητές ήδη υποδηλώνουν ότι η ΑΠ είναι ικανή να κάνει ζωή και αποφάσεις θανάτου.

Στο Ηνωμένο Βασίλειο, οι ερευνητές δημοσίευσαν πρόσφατα μια μελέτη στην οποία το AI προέβλεψε σωστά την πρόωρη θνησιμότητα καλύτερα από τις παραδοσιακές μεθόδους. Οι ερευνητές πιστεύουν ότι αυτό θα μπορούσε να επιτρέψει στους αλγόριθμους να κάνουν χρήση των «δημογραφικών, βιομετρικών, κλινικών και τρόπων ζωής» για να αποκλείσουν ασθενείς που θα επωφεληθούν από προηγούμενη παρέμβαση. Ωστόσο, οποιαδήποτε αποτυχία στον εντοπισμό ασθενών λόγω κληρονομικών ερεθισμάτων μπορεί να προκαλέσει την παρακράτηση της θεραπείας από συγκεκριμένες ομάδες.

Μια άλλη μελέτη δείχνει ότι η ΑΠ μπορεί να εντοπίσει με επιτυχία τους ασθενείς με καρκίνο που διατρέχουν υψηλό κίνδυνο θνησιμότητας 30 ημερών ή 150 ημερών. Σύμφωνα με την έρευνα αυτή, το AI θα μπορούσε να χρησιμοποιηθεί για να επισημάνει τους ασθενείς πριν λάβουν ακριβή χημειοθεραπεία. Η ιδέα είναι ότι ίσως είναι καλύτερο να κατανεμηθεί αυτή η δαπανηρή μεταχείριση αλλού.

Η έρευνα για τις παγκόσμιες αγορές, η οποία διεξήγαγε μελέτη για ιατρικά ρομπότ, δήλωσε στο ProPrivacy.com ότι "οι αναφορές έχουν δείξει ότι σε ασθενείς με καρκίνο με σοβαρή αιμορραγία έχει προταθεί ένα φάρμακο που θα μπορούσε να προκαλέσει χειροτέρευση της αιμορραγίας".

Σε άλλη περίπτωση, ένας αλγόριθμος AI που έχει σχεδιαστεί για να προβλέψει ποιοι ασθενείς με πνευμονία θα μπορούσαν να αποφορτιστούν με ασφάλεια - εσφαλμένα αποφάσισε ότι οι ασθενείς με ιστορικό άσθματος είχαν μικρότερο κίνδυνο να πεθάνουν. Η RGM μας είπε:

"Αυτό οφείλεται στο γεγονός ότι ήταν αληθές από τα δεδομένα εκπαίδευσης, καθώς οι ασθενείς με άσθμα συνήθως πήγαιναν στη ΜΕΘ, έλαβαν πιο επιθετική φροντίδα και έτσι ήταν λιγότερο πιθανό να πεθάνουν. Ο αλγόριθμος δεν το καταλάβαινε και χρησιμοποίησε τον κανόνα ότι αν κάποιος είχε άσθμα θα πρέπει να αντιμετωπίζεται ως εξωτερικός ασθενής. "

Ο Shailin Thomas, ερευνητικός συνεργάτης στο Πανεπιστήμιο του Χάρβαρντ, σημειώνει ότι «ακόμη και οι καλύτεροι αλγόριθμοι θα δημιουργήσουν δυνητικά σημαντική ευθύνη σε κάποιο ποσοστό του χρόνου». Αυτό το εγγενές δυναμικό ευθύνης δημιουργεί ένα γρίφο, επειδή είναι δύσκολο να κατανοήσουμε ακριβώς ποιος πρέπει να γίνει υπεύθυνος για το τελικό ποσοστό εγγυημένων ποσοστών λαθών.

Ο Karl Foster, νομικός διευθυντής του Blake Morgan, δήλωσε στο ProPrivacy.com ότι, προς το παρόν, οι κλινικοί γιατροί παραμένουν υπεύθυνοι:

"Τελικά, οι κλινικοί γιατροί είναι υπεύθυνοι για τους ασθενείς τους. είναι μια επιτακτική αρχή του ιατρικού επαγγέλματος. Η χρήση του AI είναι απίθανο να αλλάξει αυτή τη θέση, σίγουρα βραχυπρόθεσμα "

«Εάν φανταστούμε ότι τα ΑΙ διερευνούμε τα αποτελέσματα των δοκιμών και καθορίζουμε ότι ένα συγκεκριμένο αποτέλεσμα αυξάνει τον κίνδυνο ανάπτυξης μιας συγκεκριμένης ιατρικής κατάστασης σε έναν ασθενή, τελικά - και σήμερα - είναι για τον κλινικό για να διερευνήσει περαιτέρω. Ο κλινικός ιατρός θα παραμείνει υπεύθυνος για την ερμηνεία των δεδομένων που παρέχει η ΑΙ υπό το πρίσμα άλλων κλινικών πληροφοριών και για την λήψη απόφασης σχετικά με την καλύτερη θεραπεία. "

Ο ψυχίατρος και επιστήμονας δεδομένων Carlo Carandang, από την άλλη πλευρά, θεωρεί ότι η ευθύνη θα μπορούσε να διαμένει με τους κατασκευαστές:

"Οι εφαρμογές AI θα αντιμετωπίζονται ως ιατρικές συσκευές, επομένως η απόδοση τέτοιων εφαρμογών κλινικής AI θα είναι ευθύνη των εταιρειών που τις κατασκευάζουν και του FDA και άλλων ρυθμιστικών οργανισμών που επιβλέπουν τέτοιες ιατρικές συσκευές".

Η έρευνα για τις παγκόσμιες αγορές (RGM) είπε στο ProPrivacy.com ότι παρόλο που οι κλινικοί γιατροί φαίνεται να παραμένουν υπεύθυνοι "σε περίπτωση βλάβης που προκαλείται από λανθασμένο περιεχόμενο και όχι από ακατάλληλη χρήση ενός αλγορίθμου ή συσκευής, τότε η ευθύνη πρέπει να είναι εκείνη που σχεδίασε και τότε η ποιότητα την εξασφάλισε. "Η RGM σημειώνει ότι" αυτή η γραμμή μπορεί να μην είναι τόσο εύκολο να οριστεί ".

Ο Θωμάς ανησυχεί για το γεγονός ότι η κατοχή ευθυνών από τις επιχειρήσεις θα μπορούσε να τους οδηγήσει στην εγκατάλειψη των αλγορίθμων. Αυτό θα μπορούσε να αποβεί εξαιρετικά επιζήμιο για την ιατρική βιομηχανία, επειδή η ΑΙ αποδεικνύει ήδη τις δυνατότητές της.

Στην Κίνα, για παράδειγμα, οι ερευνητές χρησιμοποίησαν έναν αλγόριθμο για να ανιχνεύσουν τους όγκους του εγκεφάλου με μεγαλύτερη επιτυχία από τους καλύτερους ιατρούς του έθνους. Αυτά τα είδη καινοτομιών μπορούν να σώσουν ζωές - αλλά μόνο εάν οι επιχειρήσεις που παράγουν AI μπορούν να το κάνουν χωρίς συνεχή ευθύνη.

Ο Michael Carson, ανώτερος δικηγόρος της Fletchers Solicitors, πιστεύει ότι στη Βρετανία η ισχύουσα νομοθεσία είναι ικανή να χειριστεί την εμφάνιση του ιατρικού AI. Ο Carson είπε στο ProPrivacy.com ότι:

"Θα πρέπει να βλέπουμε τον AI ως ένα άλλο κομμάτι του νοσοκομειακού εξοπλισμού. Τα τυχόν σφάλματα ή λανθασμένη διάγνωση που γίνονται από τον ΑΠ πρέπει να αντιμετωπίζονται ως ισχυρισμός ιατρικής αμέλειας, με το AI να είναι απλώς ένα εργαλείο που χρησιμοποιείται από το νοσοκομείο.

"Ο νόμος είναι πιθανώς αρκετά ισχυρός για να αντιμετωπίσει ζητήματα που προέρχονται από δυσλειτουργίες του AI. Στην πραγματικότητα, το AI μπορεί να θεωρηθεί ως ένα άλλο μείγμα εξοπλισμού και λογισμικού, το οποίο είναι ήδη διαδεδομένο σε όλη την Εθνική Υπηρεσία Υγείας. "

Η RGM, ωστόσο, επισημαίνει ότι η ισχύουσα νομοθεσία δεν μπορεί να διακρίνει επαρκώς μεταξύ των "περιπτώσεων όπου υπάρχει σφάλμα στη διάγνωση της δυσλειτουργίας μιας τεχνολογίας" και των περιπτώσεων που προκαλούνται από "τη χρήση ανακριβών ή ακατάλληλων δεδομένων".

Στο τέλος της ημέρας, το AI μπορεί μόνο να ενεργήσει βάσει των δεδομένων που του παρέχονται. Εάν τα δεδομένα αυτά είναι λανθασμένα ή προκατειλημμένα, προτού εισαχθούν - είναι δύσκολο να κατανοηθεί ο τρόπος με τον οποίο οι κατασκευαστές μπορούν να βρεθούν υπαιτιότητά τους. Από την άλλη πλευρά, φαίνεται δύσκολο να κατηγορήσουμε τους επαγγελματίες του ιατρικού τομέα για αποφάσεις που ελήφθησαν από τα χέρια τους.

Ο Foster δήλωσε στο ProPrivacy.com ότι τα ισχύοντα ρυθμιστικά καθεστώτα στις ΗΠΑ και την Ευρώπη "δεν προβλέπουν αυτή τη στιγμή την εκμάθηση μηχανών όπου το λογισμικό ή τα σύνολα δεδομένων έχουν σχεδιαστεί για να εξελιχθούν". Ως εκ τούτου, τα ερωτήματα γύρω από την ευθύνη είναι πιθανό να εξελιχθούν με την πάροδο του χρόνου και οι ρυθμιστικές αρχές θα χρειαστούν να παραμείνει ευέλικτη για να αλλάξει.

Ποιος πρέπει να είναι υπεύθυνος για τα MLA είναι ένα σύνθετο ζήτημα και υπάρχει ήδη κάποια διαφωνία. Ένα πράγμα φαίνεται βέβαιο, λόγω της ταχύτητας με την οποία αναδύεται η ιατρική AI, οι νομοθέτες πρέπει να είναι επιφυλακτικοί και πρέπει να δράσουν γρήγορα για να εξασφαλίσουν ότι οι κανονισμοί είναι διατεθειμένοι να αντιμετωπίσουν. Πολύ συχνά, όταν αναδύονται νέες τεχνολογίες, οι καινοτομίες έρχονται στην αγορά πρόωρα και οι νομοθέτες αναγκάζονται να παίξουν.

Ένα από τα μεγαλύτερα προβλήματα με το AI είναι ότι οι κλινικοί γιατροί δεν καταλαβαίνουν πάντα γιατί οι MLA λαμβάνουν αποφάσεις. Αυτό οφείλεται στο γεγονός ότι η AI κάνει επιλογές χρησιμοποιώντας μαζικά σύνολα δεδομένων που ο άνθρωπος δεν μπορεί να επεξεργαστεί. Η RGM εξηγεί ότι λόγω των βελτιωμένων ποσοστών επιτυχίας:

"Οι γιατροί μπορεί να βρεθούν εσφαλμένα για να δικαιολογήσουν τις αποφάσεις που έλαβε η AI λόγω μιας καλά τεκμηριωμένης έννοιας γνωστής ως αυτοσυγκράτηση. Εδώ, οι άνθρωποι μπορούν να έχουν μια τάση να εμπιστεύονται μια μηχανή περισσότερο από ό, τι μπορεί να εμπιστεύονται οι ίδιοι. "

Αυτό το δυναμικό είναι εξαιρετικά ανησυχητικό, ειδικά όταν οι ειδικοί προειδοποιούν ότι οι αλγόριθμοι μπορεί να έρθουν προ-προγραμματισμένοι με ανθρώπινες μεροληψίες που μπορεί να προκαλέσουν ατασθαλίες.

Brayan Jackson Administrator
Sorry! The Author has not filled his profile.
follow me