logo

Kunstig intelligens som forklarer hva den tenker

Når helse står på spill, er det viktig å vite hvordan kunstig intelligens kommer frem til sine svar, slik at helsepersonell kan bekrefte om de stemmer. KI-modeller må rett og slett kunne forklare hva de tenker.

Webinar: Kunstig intelligens som forklarer hva den tenker
Michael Kampffmeyer forsker på bruk av kunstig intelligens til å analysere medisinske bilder.
Vi trenger KI som forklarer hva den tenker for å øke tilliten til tjenesten, kunne bruke KI til vanskeligere problemer, få nye innsikter og forbedre modellene.

Kunstig intelligens bør ikke være en svart boks som hevder at dens svar er den eneste sannheten. Den bør være transparent, slik at KI fungerer som beslutningsstøtte for helsepersonell. For eksempel når KI-modellen markerer hvilke områder av et radiologisk bilde den tror viser lungebetennelse eller beinbrudd. På den måten kan helsepersonell kvalitetssikre om dette stemmer.

Presentasjon ved professor Michael Kampffmeyer ved UiT Norges arktiske universitet.

Med eksempler fra forskning vil Kampffmeyer snakke om hvordan vi kan utvikle KI-modeller som forklarer hva de gjør. Han vil også fortelle hvordan vi kan oppdage om datagrunnlaget ikke er representativt for problemet det er ment å løse. Og hvis du fortsatt er i tvil, kommer han til å overbevise deg om hvorfor vi trenger transparens i KI innen helse.

Opptak

Du kan laste ned podkasten til mobilen din på Apple Podcasts, Spotify eller Podbean. Søk etter "Norwegian Centre for E-health Research".