Hopp til hovedinnhold
Til Tema og fagstoff
ET TIDSSKRIFT FRA HAVINDUSTRITILSYNET

Kunstig intelligens er også en risikofaktor

Person med sort boks på hodet Foto: Elisabeth Kjørmo
person med sort boks på hodet Foto: Elisabeth Kjørmo
 Foto:
Svart boks-metaforen blir ofte brukt i kunstig intelligens (KI) for å beskrive systemer eller modeller hvor de interne prosessene er skjulte eller uforståelige for brukeren. Dette er situasjoner hvor vi kan observere input og output, men ikke forstår hvordan systemet kommer fram til avgjørelsene sine.
I et komplekst, nevralt nettverk kan det være vanskelig å spore nøyaktig hvordan modellen har lært å kjenne igjen mønster eller ta avgjørelser, noe som gjør det til en «svart boks».
Svart boks-teknologi kan være problematisk. Ikke bare fordi det kan være viktig for oss mennesker at vi forstår og kan forklare avgjørelsene som ligger bak prosessen, men også med hensyn til muligheter for å oppdage feil eller sårbarheter eller vurdere godhet og bruk av data.

Kunstig intelligens (KI) kan gi mange fordeler, forbedringer, positive løsninger og redusert risiko. Men KI kan også være er en risikofaktor. - Med vårt Hovedtema for 2025 ønsker vi å understreke dette, og bidra til refleksjon, diskusjon og aksjoner i næringen, sier Anne Myhrvold.

  • Kunstig intelligens

- For oss mennesker er det viktig å forstå systemets begrensninger, slik at vi kan intervenere og ta grep ved behov, understreker Havtil-direktøren.

- Overdreven avhengighet av kunstig intelligens kan redusere menneskets årvåkenhet og bidra til dårligere beslutninger, og det kan også gjøre oss mer sårbare for cyberangrep, sier Myhrvold, og legger til at ansvarlig bruk av KI er spesielt viktig i storulykkerisiko-industri.

Systemets begrensninger

- Risiko kan ligge i feil bruk av data eller feil i data. Det kan være skjevheter, og det kan være manglende transparens, som i sort boks-teknologi.

- Hvordan forstår man systematikken og hvor beslutningene tas? Uten å forstå dette kan det være vanskelig å identifisere og korrigere feil.

- Med Hovedtema 2025 ønsker vi å understreke at det er viktig å forstå både de positive sidene og risikofaktorene ved kunstig intelligens. Det fins risikoforhold som gjør at KI også har utfordringer ved seg, understreker hun.

Nye systemer og løsninger basert på kunstig intelligens (KI) kan bidra til at både sikkerhet og effektivitet forbedres. Men KI kommer også med
risiko, som må håndteres.

Funksjonsbasert regelverk

- Et spørsmål er om regelverket er tilrettelagt for utvikling og bruk av KI. Både innenfor petroleum og nye områder har vi et funksjonsbasert, teknologinøytralt og risikobasert regelverk. Vi mener at forskriftene er relativt anvendelige for å sørge for gode KI-løsninger sånn som de er i dag, sier Myhrvold.

- De inneholder grunnleggende krav til ansvarlig drift og risikostyring, som er viktige med tanke på helhetlig og ansvarlig utvikling og bruk av KI. Samtidig ser vi at forskriftene kan mangle referanser til gode normer og industristandarder som kan gi tilstrekkelig veiledning når det gjelder kunstig intelligens.

- Derfor vil vi følge opp industriens arbeid med standarder og standardisering for nettopp å se til at KI dekkes på en bedre måte.

Se film om Hovedtema 2025

Kunstig intelligens er også en risikofaktor

I energibransjen overtar kunstig intelligens (KI) stadig mer av teknologien, også innen sikkerhetsrelaterte operasjoner. KI-baserte løsninger er en viktig ressurs og kan bidra til å redusere risiko. Men KI kan også gjøre det motsatte – bidra til økt risiko. Industri med storulykkesrisiko er særlig utsatt.

Utfordringen er å heve blikket og se KI i et helhetlig perspektiv. I utviklingen av KI-løsninger må samspillet mellom mennesker, teknologi og organisasjon legges til grunn for sikker bruk og vedlikehold. Samtidig må vi hindre at KI gjør oss mer sårbare for ytre trusler og ondsinnete handlinger. 

Ansvarlig bruk av KI er et felles anliggende for partene i næringen. I siste instans er det et ledelsesansvar.