Tema: Informasjonsteknologi
Forklarbar kunstig intelligens
Maskinlæring – spesielt dyp læring – kan gi gode svar, men ikke nødvendigvis forklare hvorfor svarene ble som de ble.
14. mai 2020 inviterte Tekna Big Data og Tekna Forskerne til nettseminar om forklarbar kunstig intelligens.
Se Inge Harkestad og Heidi Dahl ønske velkommen i videoen under.
Vil du bli varslet om nye webinarer av denne typen? Bli med i fagnettverket!
Inga Strümke: Forklaringer, forståelse og forvirring
Enkelte typer kunstig intelligens, så som nevrale nettverk, omtales gjerne som svarte bokser – ikke fordi det er noe der som er hemmelig, men fordi det er noe der vi ikke forstår. Fordi de består av store, kompliserte modeller som vi ikke intuitivt forstår.
Hvem du er, påvirker hvilken forklaring du har behov for. Er du en styreleder, kan du ha behov for å forstå hva som skjer i den svarte boksen for å vite om det er trygt å sette penger på beslutningene dens. Er du en bruker eller kunde, bryr du deg kanskje ikke om hvordan modellen fungerer, men om den gir deg en overbevisende historie om hvordan verden fungerer. En du en forsker eller modellutvikler, trenger du gjerne å kunne finne ut om modellen din har funnet de riktige sammenhengene i dataene, i tillegg du at må kunne forklare modellen for andre.
For å få dette til, trenger vi metoder. Og det utvikles nå stadig nye metoder for forklarbarhet.
Lær mer om dette – og blant annet om dimensjonenes forbannelse – i videoen under.
Se Ingas presentasjon her (pdf).
Anders Løland: Metodegjennomgang – utvalgte forklaringsmetoder
Forklarbar kunstig intelligens handler ofte om å lage en modell oppå en annen modell: Vi lager vi en forklarings-maskinlæringsmodell på toppen av den maskinlæringsmodellen vi prøver å forklare.
Det finnes forskjellige typer forklaringsmodeller. Det nyttigste vil være generelle forklaringsmodeller som kan brukes uavhengig av modellene som skal forklares. To eksempler på dette er LIME og Shapley-verdier. Shapley-rammeverket er mer matematisk og teoretisk fundert enn LIME, og derfor riktigere, men også tyngre å beregne.
Hvilken forklaringsmetode er best? Det kommer an på målet med analysen. Det vil være nødvendig å ha en verktøykasse av forklaringsmetoder.
Lær mer om blant annet modellspesifikke, modellagnostiske (modelluavhengige) og kontrafaktiske forklaringer i videoen under.
Se Anders' presentasjon her (pdf).
Cathrine Pihl Lyngstad: Forklarbar AI i praksis
NAV har definert prinsipper for ansvarlig kunstig intelligens – i praksis stort sett maskinlæring.
I første omgang bruker ikke NAV maskinlæring der det gis anbefalinger eller fattes vedtak direkte for brukerne. I stedet handler det om å gi beslutningsstøtte til veiledere. Eksempler er hvilken bistand arbeidsledige trenger, hvilke arbeidsrettede tiltak som bør anbefales eller om en sykemeldt bør kalles inn til et dialogmøte.
Det store spørsmålet når man skal lage en forklarbar løsning, er hva som må forklares og hvordan. For å få til dette til, kartlegger NAV ulike interessentgrupper, rettslige krav og konteksten for forklaringen. Deretter starter en iterativ og brukersentrisk prosess.
Lær mer om hvordan NAV jobber med forklarbar kunstig intelligens, og få tips, i videoen under.
Se Cathrines presentasjon her (pdf).
Diskusjon
Etter innledningene stilte Heidi Dahl spørsmål fra seerne. Se svarene fra og Inga, Anders og Cathrine i videoen under.
Lenker fra innlederne
Her kan du lese eller høre mer:
- Denne podkast-episoden, hvor Lex Fridman snakker med Daniel Kahneman, kommer inn på hva folk egentlig forventer eller har behov for når de ber om en forklaring: Daniel Kahneman: Thinking Fast and Slow, Deep Learning, and AI
- Generelt er Lex Fridmans podkastserie et «must» for alle som vil følge med på kunstig intelligens: Artificial Intelligence (AI Podcast with Lex)
- Maren Schelbred Thormodsæter og Morten Goodwin tar opp ansvarlig kunstig intelligens og forklarende algoritmer i Podkastserien «Game over»: Inga Strümke - Episode 1 fra Arendalsuka
- Teknisk artikkel av Anders Løland med flere om hvordan man kan approksimere Shapley-verdier: Explaining individual predictions when features are dependent: More accurate approximations to Shapley values
- Teknisk artikkel om usikkerheten og konfidensintervallene til Shapley-verdier: Shapley value confidence intervals for variable selection in regression models
-
Tolkning av tidsseriedata tas opp i Andreas Brandsæters prøveforelesning Artificial intelligence for time series classification: theory and methods
- Kristopher Schau snakker med Inga Strümke om kunstig intelligens i podkast-serien «Rekommandert»: Bonusrekommandert – Kunstig Intelligens
- Podkasten «Dobbeltklikk» har Inga Strümke på besøk, og tar opp temaer som maskinlæring og skattlegging av data: – Det er åpenbart at vi bør skattlegge data
- AI-spesial på NRKs «Abels tårn»: WINTERmute is coming
Tekna Big Data
Tekna Big Data er nettverket for deg som jobber med, er interessert i eller nysgjerrig på teknologier som data science, kunstig intelligens og tingenes internett. Eksempler på tema vi tar opp i våre webinarer og seminarer er stordata, maskinlæring, kunstig intelligens, automatisering, datasikkerhet, tingenes internett og annet relatert. Nettverket er kun for Tekna-medlemmer, og det er helt gratis og uforpliktende å delta. Bli med i nettverket