Kenen pitäisi olla vastuussa AI: n aiheuttamista lääketieteellisistä virheistä?

Koneoppimisen algoritmit (MLA) analysoivat valtavia määriä dataa salamanopeudella. Tietosarjoja, jotka olivat kerran liian suuria ihmisten arvioimiseksi oikein, voidaan nyt hyödyntää hengenpelastavien lääketieteellisten päätösten tekemisessä. Polttava kysymys on, pitäisikö AI: n sallia tehdä nämä valinnat. Ja jos kyllä, miten se vaikuttaa lääkäreihin, potilaisiin ja nykyisiin oikeudellisiin ja sääntelykehyksiin??


Sveitsin Zürichin terveysetiikan ja politiikan laboratorion asiantuntijat ovat vain yksi ryhmä, joka alkaa herättää häiriöitä AI: n käytöstä. Äskettäin julkaistussa lehdessä ilmaistaan ​​huolestuneisuus siitä, että potilaille voidaan evätä elintärkeät hoidot MLA: n puolueellisuuden vuoksi.

Ongelman ydin pyörii siitä, miten MLA: ita kehitetään. Lehdessä viitataan siihen, että automatisoituja järjestelmiä on ensisijaisesti koulutettu käyttämällä valkoihoisten miespuolisten potilaiden louhittuja tietoja. Tämä ”monimuotoisuuden puute” voi johtaa virheisiin, jotka aiheuttavat virheitä. Tämän seurauksena syrjäytyneet ryhmät saattavat kärsiä korkeammista lääketieteellisten epäonnistumisasteiden tasosta.

Toisen painepisteen luominen tapahtuu ihmisten nykyisissä puolueellisuuksissa ML: n hyödyntämissä "hermosyötteissä". Nämä massiiviset tietokokonaisuudet luovat potentiaalin AI: lle jäljitellä tai uudelleen ilmaista ihmisen ennakkoluuloja.

Tyyppisiin ennakkoluuloihin, jotka voivat siirtyä ihmisistä AI: hen, sisältyy ennakkoluuloja kohti korkeaa kehon massaindeksiä (BMI), rotu- tai etnisiä ryhmiä ja sukupuoleen perustuvaa syrjintää. Tämä on erittäin huolestuttavaa, koska tutkijat viittaavat jo siihen, että AI kykenee elämään ja kuoleman päätökset.

Isossa-Britanniassa tutkijat julkaisivat äskettäin tutkimuksen, jossa AI ennustaa ennenaikaisen kuolleisuuden oikein paremmin kuin perinteiset menetelmät. Tutkijoiden mielestä tämä voisi antaa algoritmien hyödyntää ”demografisia, biometrisiä, kliinisiä ja elämäntapatekijöitä” potilaiden erottamiseksi, jotka hyötyisivät aikaisemmasta interventiosta. Perinnöllisyyden aiheuttamien poikkeamien aiheuttamat potilaiden määrittämisen epäonnistuminen voivat kuitenkin johtaa hoidon keskeyttämiseen tietyistä ryhmistä.

Toinen tutkimus ehdottaa, että AI voi onnistuneesti tunnistaa syöpäpotilaat, joilla on korkea riski 30 tai 150 päivän kuolleisuuteen. Tutkimuksen mukaan AI: tä voidaan käyttää potilaiden liputtamiseen ennen kuin he saavat kallista kemoterapiaa. Ajatuksena on, että voi olla parempi jakaa tämä kallis käsittely muualle.

Tutkimus Global Markets -yrityksestä, joka on suorittanut lääketieteellisiä robotteja koskevan tutkimuksen, kertoi ProPrivacy.com: lle, että "raportit ovat viitanneet siihen, että syöpäpotilailla, joilla on vaikea verenvuoto, on suositeltu lääkettä, joka voi aiheuttaa verenvuodon pahenemisen".

Toisessa tilanteessa AI-algoritmi, joka oli suunniteltu ennustamaan, mitkä keuhkokuumepotilaat voidaan turvallisesti purkaa - päättivät virheellisesti, että potilailla, joilla on ollut astma, on pienempi kuoleman riski. RGM kertoi meille:

”Tämä johtui siitä, että se oli totta koulutustiedoista, koska astmaattiset potilaat menivät yleensä lääkärinhoitoyksikköön, saivat aggressiivisempaa hoitoa, joten he kuolivat vähemmän. Algoritmi ei ymmärtänyt tätä ja käyttänyt sääntöä, jonka mukaan jos joku sairastaa astmaa, heitä tulee hoitaa avohoitona. "

Harvardin yliopiston tutkija Shailin Thomas toteaa, että ”jopa parhaimmat algoritmit aiheuttavat potentiaalisesti merkittävän vastuun jonkin prosenttimäärä ajasta.” Tämä luontainen vastuupotentiaali luo palapelin, koska on vaikea ymmärtää tarkalleen ketä pitää pitää. vastuussa siitä, mikä on viime kädessä taattu prosenttiosuus virheistä.

Blake Morganin lakiasiainjohtaja Karl Foster kertoi ProPrivacy.com-sivustolle, että toistaiseksi klinikot ovat vastuussa:

Viime kädessä lääkärit ovat vastuussa potilaistaan; se on lääkärin ammatin keskeinen periaate. AI: n käyttö ei todennäköisesti muuta tätä asemaa, varmasti lyhyellä aikavälillä ”

”Jos kuvittelemme AI: n kuulusteltavan testituloksia ja määrittämällä, että tietty tulos lisää tietyn sairauden kehittymisen riskiä potilaalla, viime kädessä - ja tällä hetkellä - on kliinisen lääkärin tehtävä tutkia tarkemmin. Klinikko vastaa tulkitsemaan AI: n toimittamat tiedot muun kliinisen tiedon perusteella ja päättämään parhaasta hoidosta. "

Psykiatri ja tietojen tutkija Carlo Carandang puolestaan ​​katsovat, että vastuu voisi olla valmistajien vastuulla:

"AI-sovelluksia käsitellään lääkinnällisinä laitteina, joten tällaisten kliinisten AI-sovellusten suorittamisesta vastaa niitä rakentavat yritykset sekä FDA ja muut sääntelyvirastot, jotka valvovat tällaisia ​​lääkinnällisiä laitteita."

Global Markets (RGM) -tutkimus kertoi ProPrivacy.com: lle, että vaikka nykyään lääkärit näyttävät olevan vastuussa ”vahingoista, jotka johtuvat väärän sisällön sijaan algoritmin tai laitteen väärän käytön sijaan, vastuuvelvollisuudesta on annettava niille, jotka ovat suunnitelleet ja sitten laatu varmisti sen. ”RGM toteaa, että” tätä riviä ei ehkä ole niin helppo määritellä ”.

Thomas on huolissaan siitä, että vastuuvelvollisuusyritykset voivat johtaa siihen, että ne lopettavat algoritmien tuotannon kokonaan. Tämä voi olla erittäin vahingollista lääketeollisuudelle, koska AI on jo osoittanut potentiaalinsa.

Esimerkiksi Kiinassa tutkijat käyttivät algoritmia aivokasvaimien havaitsemiseen menestyvämmin kuin maan parhaat lääkärit. Tällaiset läpimurtot voivat pelastaa ihmishenkiä - mutta vain jos AI: tä tuottavat yritykset voivat tehdä niin ilman jatkuvia vastuuta koskevia huolenaiheita..

Fletchers Solicitorin vanhempi lakimies Michael Carson uskoo, että Yhdistyneessä kuningaskunnassa nykyinen lainsäädäntö on sopiva hoitamaan lääketieteellisen avustajan ilmaantuvuus. Carson kertoi ProPrivacy.com-palvelulle, että:

”Meidän pitäisi nähdä AI vain yhtenä palana sairaalalaitteita. AI: n tekemiä virheitä tai vääriä diagnooseja on käsiteltävä lääketieteellisestä huolimattomuudesta johtuvana väitteenä, koska AI on vain sairaalan käyttämä työkalu.

”Laki on todennäköisesti riittävän vankka jo AI: n toimintahäiriöistä johtuvien kysymysten käsittelemiseksi. Todellisuudessa AI: tä voidaan pitää vain yhtenä laitteiden ja ohjelmistojen yhdistelmänä, joka on jo yleistä koko kansallisessa terveyspalvelussa. "

RGM huomauttaa kuitenkin, että nykyisessä lainsäädännössä ei voida erottaa riittävästi tapauksista, joissa tekniikan diagnosoinnissa on virhe, ja tapauksista, jotka johtuvat "epätarkkojen tai sopimattomien tietojen käytöstä".

Päivän lopussa AI voi toimia vain annettujen tietojen perusteella. Jos tiedot ovat vääriä tai puolueellisia, ennen niiden syöttämistä - on vaikea ymmärtää, kuinka valmistajat voivat olla virheellisiä. Toisaalta vaikuttaa vaikea syyttää lääketieteen ammattilaisia ​​heidän käsistään tekemistä päätöksistä.

Foster kertoi ProPrivacy.com -yritykselle, että Yhdysvaltojen ja Euroopan nykyiset sääntelyjärjestelmät "eivät tällä hetkellä ennakoi koneoppimista siellä, missä ohjelmistot tai tietokokonaisuudet on suunniteltu kehittymään." Seurauksena vastuuseen liittyvät kysymykset todennäköisesti kehittyvät ajan myötä ja sääntelijät tarvitsevat pysyä joustavana muutokselle.

Kenen pitäisi olla vastuussa MLA-sopimuksista, on monimutkainen kysymys, ja jo jonkin verran erimielisyyksiä on. Yksi asia vaikuttaa varmalta, koska lääketieteellisen avustajan ilmaantuvuus on nopeaa, lainsäätäjien on oltava varovaisia, ja heidän on toimittava nopeasti varmistaakseen, että säännökset ovat valmiita selviytymään. Liian usein, kun uutta tekniikkaa ilmaantuu, läpimurto osuu markkinoille ennenaikaisesti, ja lainsäätäjät joutuvat pelaamaan kiinni.

Yksi suurimmista AI-ongelmista on se, että lääkärit eivät aina ymmärrä miksi MLA: t tekevät päätöksiä. Tämä johtuu siitä, että AI tekee valintoja massiivisten tietojoukkojen avulla, joita ihmiset eivät voi käsitellä. RGM selittää, että parantuneiden menestysasteiden vuoksi:

”Lääkärit saattavat löytää itsensä väärin perustelemaan AI: n tekemiä päätöksiä hyvin dokumentoidun konseptin, jota kutsutaan automaation puolueeksi, vuoksi. Täällä ihmisillä voi olla taipumus luottaa koneeseen enemmän kuin he voisivat luottaa itseensä. "

Tämä potentiaali on erittäin huolestuttava, varsinkin kun asiantuntijat varoittavat, että algoritmeihin voi tulla ennalta ohjelmoitu ihmisen ennakkoluuloja, jotka voivat aiheuttaa väärinkäytöksiä.

Brayan Jackson Administrator
Candidate of Science in Informatics. VPN Configuration Wizard. Has been using the VPN for 5 years. Works as a specialist in a company setting up the Internet.
follow me
Like this post? Please share to your friends:
Leave a Reply

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!:

7 + 2 =

map