− Skremmande at dei stolte på kunstig intelligens også når den tok feil

− Skremmande at dei stolte på kunstig intelligens også når den tok feil
Reda Hassan har forska på korleis kunstig intelligens påverkar avgjerder. Han åtvarar mot å la KI overstyre menneskeleg dømmekraft.

− Fagleg ekspertise og magekjensle kan fort gå tapt i møte med teknologien, seier Reda Hassan.

Han har mellom anna sett på korleis fagpersonar med høg kompetanse og stort ansvar lot seg påverke av tilrådingar frå KI-system, og dermed stilte si eiga vurderingsevne i tvil.

– I nokre tilfelle enda dei opp med å ta feil avgjerd, seier Hassan.

Ikkje stol på ein «svart boks»

Gjennom fleire feltstudium har Hassan undersøkt korleis kunstig intelligens blir brukt i praksis, og kva konsekvensar det har.

– Eg opplevde situasjonar der svært kompetente fagpersonar kunne begynne å tvile på eigne vurderingar, og dermed endra avgjerda si, seier Hassan.

Han understrekar at KI aldri må få siste ordet åleine.

Når mennesket blir usikkert og overlèt avgjerda til ein ‘svart boks’, kan det gå gale.

Reda Hassan

– Når mennesket blir usikkert og overlèt avgjerda til ein «svart boks», kan det gå gale. For å kunne stole på ei KI-tilråding, må ein vite korleis systemet er trent, kva data det byggjer på, og kvifor det kjem fram til sin konklusjon.

Voksen mann ute foran vakkert bygg
Forskar Reda Hassan meiner det er grunn til bekymring når fagfolk let ein «svart boks» overstyre viktige avgjerder. Foto: privat.

Allemannseige over natta

Sidan Reda Hassan starta sitt doktorgradsarbeid om kunstig intelligens, har utviklinga gått i eit forrykande tempo. ChatGPT og liknande system har blitt allemannseige.

Og sjølvsagt ser han også mange positive moglegheiter med å dra inn KI i innovasjonsprosessar.

− Vi har sett korleis KI driv innovasjon på tvers av mange selskap. Den endrar noverande forretningsmodellar og skapar nye verksemder.

− Generativ KI støttar heile verdikjeda, frå verdiforslag til verdifangst og levering. Den gir kritisk innsikt, forbetrar kreativiteten og reduserer kostnadar, seier Hassan.

Så langt er alt vel. Men er det då slik at når vi får tilgang til å behandle store mengder data raskt, så blir usikkerheit redusert, og vi kan ta meir informerte og nøyaktige avgjerder i alle settingar?

− Ikkje nødvendigvis, seier Hassan.

Berre menneske vurderer kontekst

− Mange trur at KI hjelper deg å bli tryggare i avgjerdene dine. Men vi såg det motsette: Den kan gi falsk tryggleik. Når systemet tok feil, følgde mennesket etter, enkelte gonger utan å stille spørsmål, seier han.

– KI kan hjelpe oss med å sjå moglegheiter vi ikkje sjølv tenkjer på. Men samtidig treng vi den menneskelege evna til å vurdere kontekst, etikk og konsekvensar.

Mange av dei Hassan intervjua i forskinga si, rapporterte om auka tillit til KI over tid. Men dette kan også vere risikabelt, meiner han.

– Det oppstår ofte ein falsk tryggleik rundt KI-system, spesielt når ein ikkje forstår korleis dei faktisk fungerer. Systema kan «hallusinere» og gi feilinformasjon. Det kan føre til alvorlege feil om ein ikkje er kritisk, seier Hassan.

Reda med komite
Reda Hassan sammen med veiledere og bedømmelseskomité etter disputasen. Fra venstre: dekan Gry Alsos, hovedveileder Sujith Nair, biveileder Karin Wigger, Reda Hassan, og komitémedlemmene Patrick Mikalef, Dolores Modic og Paavo Ritala.

KI utan innsikt og utan ansvar

Hassan er særs opptatt av ansvarleg kunstig intelligens, eller Responsible AI (RAI). Det handlar om å utvikle teknologi som er forklarleg, rettferdig og til å stole på, også i pressa situasjonar. Hassan er opptatt av å sikre at menneske tar kontroll over avgjerdene.

– Mange bruker KI som ein autoritet. Dei gløymer at den er laga av menneske, og full av antakingar og avgrensingar. Når noko går gale, er det ofte uklart kven som eigentleg har ansvaret, seier han.

Han meiner dette peikar på eit djupt systemproblem.

– Når det manglar eigarskap til ansvaret, mistar vi kontroll. Det er alvorleg, særleg når teknologien påverkar avgjerder i helse, utdanning eller offentleg forvalting, seier Hassan.

Åtvarar mot ukritisk bruk

Hassan, som sjølv er utdanna innan teknisk cyberetikk, åtvarar mot at samfunnet i raskt tempo gir KI for mykje tillit.

Det vi ikkje forstår, bør vi ikkje stole blindt på.

Reda Hassan

– Vi må ikkje la oss blenda av kor elegant teknologien framstår. KI kan vere nyttig, men den kan også vere skadeleg viss den blir brukt ukritisk. Det vi ikkje forstår, bør vi ikkje stole blindt på, seier han.

Han trekkjer fram at systema ofte blir presenterte som nøytrale, sjølv om dei byggjer på data og antakingar som er langt frå objektive.

− KI er ikkje smartare enn menneska som har laga den. Vi må slutte å tru at den nødvendigvis har fasiten.

Krev kompetanse og dømmekraft

For Hassan handlar ansvarleg KI ikkje berre om teknologi, men om kultur, etikk og kritisk tenking. Han meiner at tilliten til teknologien må byggjast gradvis, basert på innsikt og forståing, ikkje på marknadsføring eller teknologisk hype.

– No opplever vi ansvarsfråskriving. Frå utviklar til jurist, frå leiar til etikkekspert. Dette må endrast. Ansvarleg KI må byggjast inn frå starten av, seier Hassan, som etterlyser meir tverrfagleg utdanning og auka medvit rundt KI-kompetanse.

– Vi treng ei grunnleggjande forståing av korleis kunstig intelligens fungerer. Først då kan vi bruke teknologien på ein trygg og ansvarleg måte. Det handlar om å utvikle system med samvit, og menneske med mot til å ta eigne avgjerder, avsluttar Reda Hassan som nyleg disputerte ved Nord universitet.