Gå til innhold

Lov&Data

3/2024: Artikler
30/09/2024

Pasientens rett til informasjon ved bruk og utvikling av kunstig intelligens i helsehjelp

Av Julia Desiré Fuglestad Brodshaug, jurist i Helfo og Simen Hafstad-Moi, seniorrådgiver i Helfo.

To personer som ser på en stor mobiltelefon med ulike ikoner i bobler rundt, digital illustrasjon.

Illustrasjon: Colourbox.com

Implementering av kunstig intelligens i helsevesenet

Kunstig intelligens («KI») er allerede i bruk ved flere norske sykehus(1)Helsedirektoratet «Tilrettelegging for bruk av kunstig intelligens i helsesektoren med utgangspunkt i det radiologiske fagområdet», hjemmeside, 1. oktober 2021, s. 6 punkt 1, Tilrettelegging for bruk av kunstig intelligens i helsesektoren.pdf(helsedirektoratet.no) (lest september 2023). . Fra slutten av 2023 tok imidlertid Bærum sykehus teknologien ett steg videre ved å implementere den i røntgenbildeanalyse(2) Rolv Christian Topdahl, Magnus Ekeli Mullis, Anders Nøkling, «Er vi forberedt på å la maskinene behandle oss?», nettavis, 25. september 2023, https://www.nrk.no/rogaland/xl/snart-vil-kunstig-intelligens-analysere-kroppen-din_-_-vi-er-for-darlig-forberedt-1.16553955(lest 17. oktober 2023).. Teknologien har gjort det mulig å analysere store mengder bilder svært hurtig og effektivt. Pasienter som før måtte vente potensielt flere ­timer på svar på røntgenbilder, kan nå på få minutter få beskjed om hvorvidt de kan dra hjem eller ikke. Eksempelet illustrerer litt av potensialet til KI i helsehjelp.

Grunnlaget for bruken av KI, og andre digitale hjelpemidler innen helsesektoren, er digitaliseringen av samfunnet(3)Anne Kjersti Befring mfl., Kunstig intelligens og big data i helsesektoren – rettslige perspektiver, 1. utgave, Gyldendal 2020, s. 27.. Digitaliseringen har endret måten helsevesenet arbeider på, og har gjort en ny form for ­effektivitet tilgjengelig. Et viktig ­utviklingstrekk innen medisinsk ­behandling er muligheten til å bruke store mengder data og digitale hjelpe­midler for å utvikle nye og bedre behandlingsmetoder som kan redde liv(4)Anne Kjersti Befring mfl., Kunstig intelligens og big data i helsesektoren – rettslige perspektiver, 1. utgave, Gyldendal 2020, s. 30. .

Tekniske systemer blir en stadig vanligere og viktigere forutsetning for helsetjenestens evne til å gi ­effektiv og forsvarlig helsehjelp(5)Helsetilsynet, «Forsvarlig pasientbehandling uten IKT?», hjemmeside, 2021, s. 10, Forsvarlig pasientbehandling uten IKT? Risikovurderinger, nødrutiner og forbedringsarbeid ved 17 sykehus. Rapport fra helsetilsynet 2/2021 (lest 14.05.2024). . Ett av forsvarlighetskravets mange sider, er at det stilles krav til forsvarlig behandlingsform(6)Bakken, Oda. «Forsvarlighetsplikten ved bruk av kunstig intelligens i helsetjenesten.». I «Kunstig intelligens og big data i helsesektoren – rettslige perspektiver». Inger-Johanne Sand og Anne Kjersti Befring red., 1. utg, Oslo: Gyldendal, 2020, s. 400-435. s. 405.. I denne sammenhengen er pasientens rett til ­informasjon, jf. pasient- og brukerrettighetsloven («pbrl.») § 3-2, et viktig aspekt.

Ved økt implementering av KI i helsevesenet vil en viktig problemstilling være hvorvidt utviklingen og bruken av KI-systemer innen helse kan komme i strid med pasientens rett til informasjon etter pbrl. § 3-2.

Pasientens rett til informasjon

Det følger av pbrl. § 3-2 første ledd at pasienten skal ha den informa­sjonen som er «nødvendig» for å kunne forstå sin helsetilstand og hva helsehjelpen innebærer. Det skal også informeres om mulige risikoer og bivirkninger, jf. bestemmelsens første ledd andre punktum. En tilsvarende plikt for helsepersonell til å yte en slik informasjon er hjemlet i helsepersonelloven («hpl.») § 10.

Høyesterett har kommet med flere uttalelser om hva informasjonsplikten innebærer på et generelt grunnlag. I HR-2020-1332-A fremhevet Høyesterett at terskelen for hva som er nødvendig informasjon vil måtte bero på «helsepersonellets skjønn innenfor det som er forsvarlig og nødvendig». Saken gjaldt spørsmål om erstatning grunnet manglende informasjon om ­behandling i forbindelse med ­hjerteflimmer. Dommen viser til følgende uttalelse fra HR-2017-687-A, om at det:

«(...) i utgangspunktet vil være opp til legens skjønn å vurdere hvilke opplysninger som det er nødvendig å gi pasienten, og at opplysningene må tilpasses pasientens tilstand og sykdom, vedkommendes kunnskaper og muligheter til å ta til seg og oppfatte informasjonen, samt pasientens livssituasjon.».

Som det fremgår av uttalelsen fra dommen, beror det på en konkret vurdering av det enkelte tilfellet hva som anses som nødvendig informasjon. Dette vil naturligvis også gjelde ved bruk av KI-systemer innen helse. Behovet for informasjon vil for eksempel avhenge av hva slags form for KI-system man benytter, hvor stor rolle KI-systemet har i det aktuelle utrednings- og behandlingsløpet til den konkrete pasienten, og risikofaktorene ved bruk av KI-systemet for den aktuelle pasienten sin situasjon. Ved bruk av KI-systemer for å analysere røntgenbilder, slik som i eksempelet fra Bærum sykehus, vil det for eksempel kunne være nødvendig for pasientene å få informasjon om hvorvidt systemet fungerer like bra på alle. Er det for eksempel forskjeller i ytelse basert på kjønn, alder eller hvor personen kommer fra? Hvis dette er tilfellet, vil det være avgjørende for å ivareta hensynet til forsvarlighet og nødvendig informasjon at pasientene blir gjort oppmerksom på dette.

Pasientens rett til medvirkning

Pasientens rett til informasjon henger tett sammen med pasientens medvirkningsrett. Det følger av pbrl. § 3-1 første ledd andre punktum at pasienten blant annet har «rett til å medvirke ved valg mellom tilgjengelige og forsvarlige tjenesteformer og undersøkelses- og behand­lings­metoder». Etter sin ordlyd viser dette at pasienten skal ha stor innflytelse i behandlingsprosessen, særlig der det foreligger flere alternative og forsvarlige behandlingsmetoder. Bestemmelsen bygger på retten til samtykke, og forutsetter at det skal være et samarbeid mellom pasient og helsepersonell(7)Duvaland, Lars, «Karnov lovkommentar: Pasient- og brukerrettighetsloven.», Lovdata Pro, 2021, § 3-1 note 1 (lest 25.09.2023).. ­Pasientens ønsker skal derfor vurderes og vektlegges sterkt i vurderingen av de ulike valgene som skal gjøres i forbindelse med et behandlingsforløp.

Er det for eksempel forskjeller i ytelse ­basert på kjønn, alder eller hvor personen kommer fra?

Retten til medvirkning har de siste årene fått økt relevans, ettersom den digitale utviklingen i samfunnet legger til rette for flere behandlingsmuligheter(8)Duvaland, Lars, «Karnov lovkommentar: Pasient- og brukerrettighetsloven.», Lovdata Pro, 2021, § 3-1 note 1 (lest 25.09.2023). . Samtidig har dette gjort at problemstillinger ­knyttet til implementeringen av KI-systemer har fått økt aktualitet. ­Utfordringer i denne sammenheng knytter seg til hvordan medvirk­ningsretten, og i forlengelsen av denne retten til informasjon, ivaretas på bakgrunn av det såkalte «svart boks»-problemet(9)Lie, Thomas Endre. «Noen problemstillinger ved implementering av persontilpasset medisin.». I «Kunstig intelligens og big data i helsesektoren – rettslige perspektiver». Inger-Johanne Sand og Anne Kjersti Befring red., 1. utg, Oslo: Gyldendal, 2020, s. 442. .

«Svart boks»-problemet og pasientens rett til informasjon og medvirkning

I enkelte tilfeller blir KI-systemer så vanskelige å forstå, at det blir umulig for de ulike aktørene å skjønne hvordan den enkelte beslutningen har blitt tatt. Dette kalles gjerne for «svart boks»-problemet(10)Lie, Thomas Endre. «Noen problemstillinger ved implementering av persontilpasset medisin.». I «Kunstig intelligens og big data i helsesektoren – rettslige perspektiver». Inger-Johanne Sand og Anne Kjersti Befring red., 1. utg, Oslo: Gyldendal, 2020, s. 439. .

Ved bruk av kunstig intelligens i helsehjelp, kan det bli vanskelig for helsepersonell å få oversikt over store mengder analyserte data og hvordan ­beslutningene blir tatt, og følgelig hvilken ­risiko dette innebærer for pasienten.

For at helsepersonell skal kunne formidle kunnskap om ulike sykdomstilstander og gjøre pasienten oppmerksom på ulike former for helsehjelp, kreves det en viss innsikt og forståelse for beslutningsgrunnlaget(11)Aarli, Ragna. «’Big data’ og helsehjelpens nye aktørbilde.». I «Kunstig intelligens og big data i helsesektoren – rettslige perspektiver». Inger-Johanne Sand og Anne Kjersti Befring red., 1. utg, Oslo: Gyldendal, 2020, s. 245.. Ved bruk av kunstig intelligens i helsehjelp, kan det bli vanskelig for helsepersonell å få oversikt over store mengder analyserte data og hvordan beslutningene blir tatt, og følgelig hvilken risiko dette innebærer for pasienten. For at helse­personell skal kunne oppfylle sin informasjonsplikt, kan det argumenteres for at det kreves en god utveksling av informasjon mellom helsepersonell, virksomhet og de som har utviklet KI-systemet. Dersom dette ikke skjer, vil det ikke være noen som egentlig har full oversikt over beslutningene som blir tatt, og risikoen disse innebærer. På denne måten blir det svært viktig at de som har utviklet KI-verktøyet, og som forstår analysen, kan klarlegge automatiseringen som har skjedd, og hvilken risiko dette medfører. Uten en slik informasjons­utveksling mellom de ulike aktørene vil det potensielt kunne bli få muligheter for pasienten til å få tilstrekkelig informasjon, samt medvirke til sin behandlingsform.

Når dette er sagt, er det ikke nødvendigvis slik at helsepersonell trenger å forstå alle de tekniske spesifikasjonene ved et KI-system for å kunne oppfylle informasjonsplikten etter hpl. § 10. Videre stiller blant annet den nylig vedtatte AI Act opp en rekke bestemmelser som skal regulere utviklingen og bruken av kunstig intelligens, slik at problemer som det forannevnte ikke oppstår innen helse.

Digitale hjelpemidler har blitt brukt innen helse siden den digitale utviklingen skjøt fart mot slutten av 1960-tallet(12)NOU 2023: 4.. Kunstig intelligens er i dag en del av denne utviklingen, og man ser at omfanget og tilgjengeligheten av en slik teknologi øker. Parallelt med denne utviklingen opp­står det et behov for effektiv rettslig regulering.

Digitale hjelpemidler har blitt brukt innen helse siden den ­digitale utviklingen skjøt fart mot slutten av 1960-tallet

AI Act er det første juridiske rammeverket som tar sikte på å ­regulere kunstig intelligens. Forordningen er bygget opp slik at den knytter flere krav og reguleringer til KI-systemer som innebærer høy risiko ved bruk, enn systemer med lav risiko. Kunstig intelligens innen helsesektoren faller inn under det som defineres som «høy risiko»(13)COM/2021/206 final, Proposal For A Regulation Of The European Parliament And Of The Council Laying Down Harmonised Rules On Artificial Intelligence (Artificial Intelligence Act) And Amending Certain Union Legislative Acts [AI Act] punkt 5.2.3. , ettersom det er snakk om systemer som fungerer innen kritisk infrastruktur og som potensielt kan ­påføre uopprettelig skade dersom de ikke er undergitt strenge krav.

AI Act er det første ­juridiske rammeverket som tar sikte på å regulere kunstig ­intelligens.

AI Act artikkel 29 og 13 kan trekkes frem som eksempler på ­bestemmelser som kan bidra til å sikre at «svart-boks»-problematikk ikke oppstår innen helse. Førstnevnte bestemmelse, artikkel 29, fremhever flere forpliktelser ved bruk av AI-systemer med høy ­risiko. For det første stilles det krav om at systemene skal brukes på tiltenkt måte. Videre stilles det krav om at det skal skje en kontinuerlig overvåkning under bruken av systemet, og en rapportering mellom ­ulike aktører om en mulig økning i risiko. Sistnevnte bestemmelse, AI Act artikkel 13, handler om retten til åpenhet. Bestemmelsen innebærer at systemene skal være designet og utviklet på en slik måte at bruken er «sufficiently transparent to enable users to interpret the system’s output» og «use it appropriately». Dette kan gjøre bruken av KI i helsehjelp mer i tråd med forsvarlighetskravet, herunder kravet til medvirkning og informasjon jf. hpl. § 4.

Videre vil blant annet lov om medisinsk utstyr og EUs personvernforordning kunne hindre at «svart boks»-problematikk oppstår innen helse. Lov om medisinsk ­utstyr stiller høye generelle krav til merking, overvåkning og dokumentasjon der KI-systemer regnes som medisinsk utstyr. GDPR stiller ­videre strenge krav til åpenhet og bruk av helseopplysninger.

Det kan på bakgrunn av dette argumenteres for at «svart boks»-problematikken ikke nødvendigvis vil være et praktisk problem i forhold til pasientens rett til informasjon ved bruk av KI-systemer innen helse. Det er flere sentrale bestemmelser som sikrer at informasjonen rundt beslutningsgrunnlaget til et KI-system ikke går tapt, og en ­løpende kvalitetssikring vil kunne hindre uforutsette resultater.

På den andre siden kan det stilles spørsmålstegn ved hvor effektivt AI Act vil regulere kunstig intelligens i praksis etter implementering, og hvilken retning utviklingen av KI innen helse faktisk vil ta i fremtiden.

Avsluttende bemerkninger

Med fremveksten av stadig mer komplekse digitale systemer og ­behandlingsmetoder vil pasientens behov for god informasjon stå sentralt. Denne artikkelen har blant ­annet sett på pasientens rett til ­informasjon opp mot «svart boks»-problematikk ved implementeringen av KI-systemer innen helse. Artikkelen er ment som et utgangspunkt for rettslig refleksjon rundt informasjonsplikten i tiden som kommer.

Noter

  1. Helsedirektoratet «Tilrettelegging for bruk av kunstig intelligens i helsesektoren med utgangspunkt i det radiologiske fagområdet», hjemmeside, 1. oktober 2021, s. 6 punkt 1, Tilrettelegging for bruk av kunstig intelligens i helsesektoren.pdf(helsedirektoratet.no) (lest september 2023).
  2. Rolv Christian Topdahl, Magnus Ekeli Mullis, Anders Nøkling, «Er vi forberedt på å la maskinene behandle oss?», nettavis, 25. september 2023, https://www.nrk.no/rogaland/xl/snart-vil-kunstig-intelligens-analysere-kroppen-din_-_-vi-er-for-darlig-forberedt-1.16553955(lest 17. oktober 2023).
  3. Anne Kjersti Befring mfl., Kunstig intelligens og big data i helsesektoren – rettslige perspektiver, 1. utgave, Gyldendal 2020, s. 27.
  4. Anne Kjersti Befring mfl., Kunstig intelligens og big data i helsesektoren – rettslige perspektiver, 1. utgave, Gyldendal 2020, s. 30.
  5. Helsetilsynet, «Forsvarlig pasientbehandling uten IKT?», hjemmeside, 2021, s. 10, Forsvarlig pasientbehandling uten IKT? Risikovurderinger, nødrutiner og forbedringsarbeid ved 17 sykehus. Rapport fra helsetilsynet 2/2021 (lest 14.05.2024).
  6. Bakken, Oda. «Forsvarlighetsplikten ved bruk av kunstig intelligens i helsetjenesten.». I «Kunstig intelligens og big data i helsesektoren – rettslige perspektiver». Inger-Johanne Sand og Anne Kjersti Befring red., 1. utg, Oslo: Gyldendal, 2020, s. 400-435. s. 405.
  7. Duvaland, Lars, «Karnov lovkommentar: Pasient- og brukerrettighetsloven.», Lovdata Pro, 2021, § 3-1 note 1 (lest 25.09.2023).
  8. Duvaland, Lars, «Karnov lovkommentar: Pasient- og brukerrettighetsloven.», Lovdata Pro, 2021, § 3-1 note 1 (lest 25.09.2023).
  9. Lie, Thomas Endre. «Noen problemstillinger ved implementering av persontilpasset medisin.». I «Kunstig intelligens og big data i helsesektoren – rettslige perspektiver». Inger-Johanne Sand og Anne Kjersti Befring red., 1. utg, Oslo: Gyldendal, 2020, s. 442.
  10. Lie, Thomas Endre. «Noen problemstillinger ved implementering av persontilpasset medisin.». I «Kunstig intelligens og big data i helsesektoren – rettslige perspektiver». Inger-Johanne Sand og Anne Kjersti Befring red., 1. utg, Oslo: Gyldendal, 2020, s. 439.
  11. Aarli, Ragna. «’Big data’ og helsehjelpens nye aktørbilde.». I «Kunstig intelligens og big data i helsesektoren – rettslige perspektiver». Inger-Johanne Sand og Anne Kjersti Befring red., 1. utg, Oslo: Gyldendal, 2020, s. 245.
  12. NOU 2023: 4.
  13. COM/2021/206 final, Proposal For A Regulation Of The European Parliament And Of The Council Laying Down Harmonised Rules On Artificial Intelligence (Artificial Intelligence Act) And Amending Certain Union Legislative Acts [AI Act] punkt 5.2.3.
Julia D. Fuglestad Brodshaug
Portrett av Julia Brodshaug
Simen Hafstad-Moi
Portrett av Simen Moi