Hva sier myndighetene

Direktoratet for medisinske produkter (DMP), Helsedirektoratet og Helsetilsynet publiserte sammen en avklaring våren 2025: KI-systemer i helsetjenesten omfattes ofte av definisjonen av medisinsk utstyr. Hvis programvaren gir beslutningsstøtte ved diagnostikk eller foreslår behandling, er det «liten tvil om at systemet regnes som medisinsk utstyr og må være CE-merket» — i tråd med EUs forordning for medisinsk utstyr (MDR 2017/745).

Et viktig poeng for klinikere: selv om en KI-løsning ikke klassifiseres som medisinsk utstyr, omfattes den likevel av de grunnleggende helserettslige kravene. Virksomheten har ansvar for internkontroll og systematisk arbeid for å ivareta pasientsikkerheten.

Hva som faktisk kan gå galt

Internasjonal forskning fra 2024 har dokumentert flere risikoer:

  • Hallusinasjoner: AI-transkripsjon kan generere innhold som aldri ble sagt — også konkrete medikamentnavn som ikke finnes
  • Negasjonsfeil: «har ikke hatt hjerteinfarkt» blir til «har hatt hjerteinfarkt»
  • Sammenblanding: Pasientens egen sykehistorie blandes med pårørende-info
  • Plausible men feilaktige notater: Grammatisk korrekt tekst som likevel inneholder feil

Disse feilene er vanskelige å oppdage fordi de leser glatt. Når flere konsultasjoner går mellom hver journalgjennomgang, oppdages feilen kanskje ikke før det får kliniske konsekvenser.

Hva ansvaret innebærer

Du som signerer er ansvarlig for innholdet — uavhengig av hvilket verktøy som har skrevet utkastet. I praksis betyr det:

  1. Les hele notatet før signering. Ikke godkjenn ferdig-flyt blindt.
  2. Sjekk negasjoner særlig nøye. «Ikke», «benekter», «fornekter» er der feil oftest skjer.
  3. Verifiser medikamentnavn og doser. Hvis verktøyet har fylt inn noe som ikke ble sagt, oppdager du det her.
  4. Be om transparens fra leverandøren. Hvilken språkmodell brukes? Hvor lagres data? Er systemet CE-merket?

Tre nivåer av KI i journalsystem

Det er nyttig å skille mellom tre nivåer:

Nivå 1 — ren transkripsjon. Tale-til-tekst uten klinisk tolkning. Risiko: lav. Ansvarsfordeling: tydelig — du leser og redigerer.

Nivå 2 — strukturhjelp. Organiserer det du har sagt i SOAP-format eller liknende. Risiko: middels. Husk: hvis verktøyet «trekker konklusjoner» fra det du har sagt, beveger det seg mot nivå 3.

Nivå 3 — beslutningsstøtte. Foreslår diagnose, behandling eller utredning. Risiko: høy. Krever CE-merking under MDR.

I solo-praksis er nivå 1 og 2 normalt det som gir verdi uten regulatorisk kompleksitet.

Praktiske tiltak du selv kan gjøre

Uavhengig av leverandør og system bør du:

  • Be om en oversikt over hvilke språkmodeller som brukes og hvor data behandles
  • Etabler en valideringsrutine — ikke bare gjennomlesning, men aktiv kvalitetssikring av spesifikke risikopunkter (negasjoner, doser, navn)
  • Loggfør hvem som har validert — i klagesaker er sporbarhet avgjørende
  • Spør om databehandleravtale — pasientdata må være regulert juridisk, ikke bare teknisk

Sluttbemerkning

KI er et verktøy som kan spare tid og bedre struktur. Men feil som glipper kan ha alvorlige konsekvenser, og ansvaret er ditt. Den enkleste sikkerheten er fortsatt: les notatet før du signerer, hver gang.

DocY Solo og KI: Vi bruker KI i en avgrenset rolle som dokumentasjons- og strukturverktøy — ikke som beslutningsstøtte. Behandlingsassistenten skal ikke foreslå diagnose, behandling, legemidler, utredning, hastegrad eller risikovurdering. Det er et bevisst valg som holder oss under MDR-grensen og gjør ansvarsfordelingen klarere. Du kan lese mer på transkripsjon / behandlingsassistent og sikkerhet og personvern.

Kilder

  • Direktoratet for medisinske produkter, Helsedirektoratet, Helsetilsynet — fellesartikkel om KI i helsetjenesten (2025)
  • EU MDR 2017/745
  • EU AI Act 2024/1689
  • Damoun Nassehi: «Når kunstig intelligens skriver journal — og ingen trippelsjekker»
  • Forskning fra 2024 på AI-transkripsjon og «hallucination»-rate (Whisper-baserte systemer)