Hopp til hovedinnhold
Til Tema og fagstoff
ET TIDSSKRIFT FRA HAVINDUSTRITILSYNET

Intelligens forklart

Bilde av KI-forsker Inga Strümke Foto: NTB
Tillit til teknologi? - Det gir ikke mening å snakke om å stole på eller ha tillit til mekaniske prosesser. Tillit har man til aktører, og maskiner er per i dag ikke aktører, slår KI-forsker Inga Strümke fast.

Hva mener vi når vi snakker om forklarbar kunstig intelligens (KI)? Og hvordan kan vi stole på beslutninger tatt av teknologi vi ikke helt forstår?

  • Kunstig intelligens

Vi har bedt Inga Strümke, førsteamanuensis og forsker innenfor maskinlæring, forklarbar kunstig intelligens og KI-etikk ved Norges teknisk-naturvitenskapelige universitet (NTNU), svare på tre sentrale spørsmål om KI.

Hva menes egentlig med forklarbar kunstig intelligens?

- Vi sikter til verktøy laget for å forklare en modell som i utgangspunktet ikke er tolkbar for mennesker. Slike verktøy kan brukes under treningen av modellen, eller til å forklare en eksisterende modell.

Hvorfor er det så viktig at kunstig intelligens er forklarbar?

- Det er viktig av flere grunner. Vi vil beskytte menneskelig autonomi og kontroll (vi kan ikke ivareta våre egne interesser om vi ikke forstår hva som skjer). Vi vil muliggjøre oppdagelse av ny kunnskap (det finnes maskinlæringsmodeller som finner svar vi mennesker ikke klarer å finne). Og etter hvert må vi være i tråd med eksisterende og kommende reguleringer, inkludert GDPR, AI Act/EUs KI-forordning og forvaltningsloven.

Hvordan kan vi stole på beslutninger tatt av teknologi vi ikke helt forstår?

- Jeg mener det ikke gir mening å snakke om å stole på eller ha tillit til mekaniske prosesser. Tillit har man til aktører, og maskiner er per i dag ikke aktører. Dette blir ekvivalent til å spørre om man kan ha tillit til en annengradslikning.

Ubesvart spørsmål

Hva som er en god nok og dessuten mulig forklaring på en maskinlæringsmodell til et menneske, er på langt nær et uutforsket spørsmål, men likevel ubesvart.

Hovedproblemet slik jeg ser det, er at det ikke er mulig å forklare noe komplisert på en enkel måte.

Det blir som å prøve å tegne en kube i form av en firkant. Det går ikke; kuben har en hel dimensjon som firkanten ikke har.

Alle forklaringer er nødvendigvis forenklinger, og hvilken del av informasjonen som skal forenkles bort idet en forklaring genereres, må bestemmes av noen.

(Inga Strümke: Maskiner som tenker, Kagge forlag, 2023)