Inga Strümke skriver litt om Explainable Artificial Intelligence i sin bestselger-bok, men det er  ChatGPT som virkelig  forklarer hva dette går ut på. Dette begrepet er kjernen i å forstå og regulere kunstig intelligens.

Foto

Thor Brødreskift/Nordiske mediedager.

Stat & Styring

Bare KI kan regulere KI

Publisert: 6. november 2023 kl 13.42
Oppdatert: 9. november 2023 kl 08.10

Dagens Perspektiv samarbeider med redaksjonen i Stat & Styring, og publiserer med jevne mellomrom aktuelle saker om politikk og forvaltning som også kan leses på statogstyring.no

­En av forfatterne, norske Inga Strümke, har en viktig og tydelig beskjed til alle som arbeider med offentlig styring: KI er så stort at det må håndteres av en stor offentlig organisasjon. Vi har et stort tilsyn bare for å håndtere jernbanene her i landet. KI er mye større.

Alle de tre bøkene som er kilde for denne artikkelen, bygger på forskjellig måte opp om fore stillingen om hvor gigantisk denne teknologien er, og hvor store utfordringene med å styre den er.

Men alle bøkene er optimistiske. Det skyldes kanskje at de er skrevet av mennesker som har en eller annen egeninteresse av at denne teknologien lykkes, men det kan også skyldes at forfatterne er mennesker som har veldig god greie på det de skriver om.

Alle tre bøkene peker på at for å regulere kunstig intelligens kreves det metoder som bygger på kunstig intelligens.

Forklarbar intelligens

Saken fortsetter under annonsen

Akademikeren Inga Strümke har skrevet en norsk bestselger som gir en ganske omfattende innføring i noen grunnleggende prinsipper for teknologien. En av hennes viktigste bidrag er belysningen av «explainable AI», også kalt XAI.

Hun begrunner søkelyset på dette med å beskrive det helt fundamentale i teknologien rundt nevrale nettverk, som er det sentrale prinsippet i KI-teknologier. Slike nettverk er noder av data som knyttes sammen i flerdimensjonale rom, hvor teknologien finner sam menhenger eller forskjeller i dataene som ikke er mulig å se for mennesker. «Når vi bruker nevrale nettverk, går maskinen derfor bort fra et språk den har til felles med mennesker, og tilegner seg en såkalt subsymbolsk kunnskap.»

Når dataene bearbeides i nettverket, blir dataene uforståelige for mennesker, skriver Strümke. «For oss representerer ikke disse tallene meningsfylte symboler lenger. Meningen gjemmer seg under symbolene; den er subsymbolsk.

Denne egenskapen ved teknologien gjør at det sentrale i KI er svarte bokser (black boxes): «Problemet er at maskinlæringsmodeller ikke beskriver verden på en måte som er tilpasset menneskelig forståelse. De består av tall og matematiske operasjoner vi kan lese av, men som ikke gir oss en forståelse av hvilken innsikt tallene representer. Innsikter ligger under symbolene: Hva en modell har skjønt er hemmelig på grunn av min (og alle men neskers) begrense evne til å forstå en haug med tall.» .

Dette høres jo skummelt ut, men Strümke forklarer at det er håp: «[…] vi er mange som jobber iherdig med å utvikle metoder for å forstå maskinene. Dette eventyret er et eget forskningsfelt under kunstig intelligens, ved navn forklarbar kunstig intelligens.» Strümke velger dessverre ikke å gå nærmere inn på forskningsfeltet explainable artificial intelligence (XAI). Det kunne hun godt ha gjort siden det er så sentralt både i forståelsen og regulerin gen av teknologien.

Siden Strümke ikke går nærmere inn på XAI, har jeg bedt GPT4, den mest avanserte av KI-modellene som er tilgjengelig for massemarkedet i dag, om hjelp: «Hva er noen ledende XAI-teknikker?»

GPT4: «Per september 2021 hadde flere XAI (forklarbar kunstig intelligens) teknikker blitt utviklet for å gjøre AI-modeller mer tolkbare og gi menneskeforståelige forklaringer på deres beslutninger. Her er noen ledende XAI-teknikker:

Saken fortsetter under annonsen

LIME (Local Interpretable Model-agnostic Explanations): LIME er en populær teknikk som tilnærmer seg atferden til en kompleks AI-modell ved å trene en enklere og tolkbar modell lokalt rundt en spesifikk datainstans. Den hjelper med å forklare individuelle pre diksjoner ved å fremheve de mest innflytelsesrike funksjonene for den prediksjonen.

SHAP (SHapley Additive exPlanations): SHAP er basert på samarbeidsteori og gir en enhetlig måling av funksjonsviktighet. Den tildeler hver funksjon en verdi som represente rer dens bidrag til en prediksjon, med tanke på alle mulige funksjonskombinasjoner.»

GPT4 hadde også flere andre teknikker som var kjent da den sist ble oppdatert i 2021, og den la til sin vanlige forsiktighetsadvarsel om å sjekke nyere forskningsartikler.

Uetisk å ikke bruke muligheten

Svaret fra GPT4 ser ut til å være konsentrert om to teknikker: en som avslører hvilke funk sjoner som er de viktigste i en modells prediksjon, altså hva er de avgjørende faktorene for at KI kommer fram til et bestemt resultat. Den andre teknikken er regelbaserte forklaringer på hvordan KI-modellen kommer fram til et resultat.

Erfaringene som Strümke har gjort med svarte bokser og XAI, er en av grunnene til at hun er tilhenger av strengere regulering av teknologien, og at det må komme et norsk algo ritmetilsyn. Det er ikke bare fordi hun er redd for en uhemmet utvikling av teknologien, men også fordi hun er redd for at vi ikke får delta i noen utvikling:

«Et tydelig regulatorisk landskap legger til rette for utvikling, og i Norge ser vi at mange len på tydelig krav gjør at vi ikke klarer å ta i bruk kraftige verktøy fordi vi er redde for å gjøre feil. Vi går rett og slett glipp av løsninger som kunne løst problemene våre, selv om det med letthet kan argumenters for at dette er vel så uetisk som å ta i bruk teknologien og begå feil underveis.»

Saken fortsetter under annonsen

Grunnleggende optimist

Å forklare de hemmelige rommene i AI er ikke Reid Hoffmann opptatt av. Det er kanskje ikke annet å forvente av en mann som var en tidlig investor i Open AI, og som var med på å starte opp LinkedIn. Sosiale medier er nettopp en av de mediesektorene som sannsynlig vis vil ha mest å hente ved å bruke AI i stor skala.

Hoffmann er grunnleggende optimistisk med hensyn til den nye teknologien, og det kommer klart fram i selve hovedfundamentet til boken; den er skrevet i samarbeid med GPT4. Lange sekvenser av teksten er skrevet i samarbeid med maskinen, og den teksten som gjengis er imponerende. Det er jo den samme opplevelsen millioner av mennesker har hatt med denne nye teknologien; den er umiddelbart nyttig, velformulert og svært godt infor mert om et bredt spekter av emner. Men hvor nøyaktig den er kan selvfølgelig diskuteres.

At Hoffmann er optimistisk er en holdning han nærmest unnskylder. Men unnskyldnin gen tar ikke vekk hovedinntrykket av at han både ser teknologiutvikling generelt som noe svært godt for menneskeheten og at denne teknologien har større muligheter enn mange tidligere teknologier:

«Jeg mener ikke at vi skal avskrive alle de store utfordringene vi står ovenfor, eller antyde at et mer optimistisk perspektiv kan isolere oss fra motgang. Det finnes aldri en sikker eller rettfram-vei til en bedre framtid. Faktisk er omfanget av utfordringer som klimaendringer, pandemier, økonomisk rettferdighet og systematisk rasisme det som gjør en heftig optimis tisk mentalitet nødvendig.»

Unikt menneskelig

Saken fortsetter under annonsen

Hoffmann trekker fram nedgang i global fattigdom, barnedødelighet og luftforurensing som store framskritt, på tross av all motgangen.

For en teknologiinvestor som ham er det vanskelig å ikke plassere teknologien i sentrum for menneskelig utvikling. Og det gjør han ubeskjeden med utsagn som «[…] teknologisk innovasjon har alltid vært menneskehetens definerende egenskap. Ja, vi er et uvanlig intel ligent vesen. Men det som gjør oss særlig unike er hvordan vi utnytter denne intelligensen ved å utvikle teknologier som forsterker og komplementerer vår mentale, fysiske og sosiale kapasitet».

Han ber GPT4 om å gi ham eksempler på dette og får beskrivelser av hvordan steinred skaper gjorde det mulig å jakte mer effektivt og prosessere mat på en måte som økte matsik kerheten og veksten i tidlige sivilisasjoner. Til og med historien om hjulets betydning er med i beskrivelsen av menneske-maskin-fellesskapet.

Det er slike beskrivelser av grunnleggende teknologioptimisme som gjør denne typen framstilling av KI både overflatisk og besnærende – og ikke minst skremmende fordi tek nologien ser ut til å omfatte alt:

Samtalen med GPT4 fører teknologioptimismen og -determinismen helt tilbake til menneskehetens vugge når Hoffmann gjør seg til orde for at teknologien (ilden) gjorde det mulig å utvikle et språk fordi urmennesket kunne sitte rundt bålet og snakke, og for at end ringer i matvaner med varmebehandling endret dietten og førte til økning av hjernekapasi tet og intellektuell evne.

Enorm mulighet for skolen

På denne måten blir Hoffmann en svært ivrig talsmann for teknologien som han selv har vært med på å finansiere. Og han viser hvorfor andre også bør være optimistiske, gjennom konkrete eksempler.

Saken fortsetter under annonsen

Et av de mest slående eksemplene er kanskje skolelæreren som beskriver sin begeist ring når hun oppdager at GPT kan rette elevenes stiler (essays), slik en lærer ville ha gjort det.

En lærer som er intervjuet av New York Times, forteller til avisen at hun ble svært glede lig overrasket da hun oppdaget at ChatGPT kan kommentere studentoppgaver med kom mentarer som at «denne overgangen er ikke så flytende, og introduksjonen mangler, og det er ikke noen tese i hele besvarelsen».

For denne læreren var dette en enorm lettelse. Hun hadde 80 essays å gjennomgå i peri oder, og det tok henne en uke å komme igjennom. Med dette hjelpemiddelet ville både hun og millioner av andre lærere få en mye lettere arbeidsdag og kunne frigjøre tid til f.eks. å forbedre undervisningen.

Hoffmann har også et uventet forslag til hvordan journalister og medier kan bruke GPT. Det åpenbare og mest brukte eksempelet tidligere har vært at KI kan skrive tekster for jour nalister, men de fleste mener at det er problematisk fordi KI er for unøyaktig. Hoffmann mener at problemet med at mediene og journalistene selv er unøyaktige og lite troverdige, er et like stort problem. Han mener derfor at KI kan spille en stor rolle i å faktasjekke medi ene.

Han foreslår en faktasjekk-knapp under hver artikkel som kan føre til websiden til en tredjepart, som ved hjelp av KI-verktøy kan sjekke artikkelens faktaopplysninger og kon tekst, blant annet gi opplysninger om kildene i artikkelen som kan kaste lys over deres bak grunn og kvalifikasjoner.

Framtiden er her

Hoffmanns budskap om regulering er som for de andre forfatterne: Man må ha en kontrol lør som er like effektiv som motparten.

«However, things evolve, I strongly believe that any effective strategy to neutralize disin formation—whether AI-generated or human-made—will involve using AI tools to detect such material. I also believe it’s equally important—possibly even more important—to flood the zone with truth.»

Hoffmann vil med sine investeringer altså doble sine gevinster: først med å selge KI teknologi til en operatør som vil produsere desinformasjon, og deretter ved å selge til de som vil avsløre desinformasjon.

Hoffmanns bok har fått relativt stort gjennomslag, og den er jo i likhet med Strümkes bok utrolig godt timet og oppdatert med den siste utviklingen. En bok som har vært ute noen år, og som kom før KI-gjennombruddet tidligere i år, har også hatt stor betydning: AI 2041: Ten Visions for Our Future, skrevet av den tidligere Google-sjefen og investoren Kai-Fu Lee og science fiction-forfatteren Chen Qiufan. Begge er kinesere, og mens den førstnevnte har gjort karriere i amerikanske teknologiselskaper som Apple, Microsoft og altså Google, har den andre blitt boende i Kina og skrevet prisbe lønte science fiction-bøker.

Denne kombinasjonen av en tech-investor med akademisk bakgrunn og en fiksjonsfor fatter gjør denne boken til en spennende og troverdig beskrivelse av en framtid fylt av KI teknologi. Gjennom ti historier fra framtiden og analyser av disse historiene viser den akkurat hvor dypt KI kan bli i våre liv og i vårt samfunn.

En av historiene handler om hvordan en jente som blir forelsket i en gutt på skolen, prø ver å kontakte ham på sosiale medier. Hver gang hun leser om ham eller liker noe han har skrevet, blir prisen på hennes families forsikringspremie økt. Årsaken er at gutten tilhører et lavere sosialt lag med høyere risiko for all verdens problemer med helse og økonomi.

I analysen beskriver Kai-Fu Lee hvordan KI kommer fram til slike konklusjoner delvis gjennom en programmert ordre fra oppdragsgiverne om å fokusere på forsikringsselska pets fortjeneste, og delvis gjennom å ha blitt trent på data som beskriver helserisikoen til den lavere klassen på en skjev måte.

F.eks. har KI vært i stand til å avgjøre seksuell legning bare ut ifra mikroskopiske ansikts uttrykk, en teknologi som kan føre til diskriminering, ifølge Lee. Advarsler om diskrimine ring er KI-litteraturen full av, og vanligvis blir det forklart med at dataene som KI blir opp lært med, reflekterer en reell diskriminering som samfunnet er dominert av. Slik sett vil KI bare fortsette denne diskrimineringen. Men Lees eksempel viser også at KI lærer seg nye metoder for å forsterke diskrimineringen.

I mange av tilfellene som er blitt avslørt om hvordan KI diskriminerer mot visse mino riteter, er sakene blitt avdekket av mennesker som har brukt dataanalytiske verktøy for å finne fram til avsløringene. Slike verktøy vil det bli mange flere av, og mange av dem vil bli drevet av KI. Men hva når KI selv bruker slike avslørende verktøy mot sine egne systemer for å trene seg selv til å ikke bli avslørt?

Kunstig motstand

Dette er en av de grunnleggende teknologiene bak såkalte deepfakes: bilde eller lyd som er satt sammen for å se og høres virkelig ut, men som er forfalskninger. Deepfakes bruker en teknologi som kalles Generative adversarial networks (GAN). Dette systemet består av to nettverk: et nettverk som skaper forfalskninger, og et annet som forsøker å avsløre for falskninger. Det første, forfalskernettverket, lærer av hvordan avsløringsnettverket arbeider for å avsløre forfalskninger, og på den måten kan det lages bedre forfalskninger som kan unngå å bli avslørt.

Lee mener det bare er én løsning på dette: at alle bilder blir autentisert med blokkjede teknologi. Dette er svært ressurskrevende, og han mener at det ligger langt inn i framtiden. Det illustrerer imidlertid et grunnleggende problem med KI: Det er bare alternative KI systemer som kan avsløre andre KI-systemer. Det kreves enorme dataressurser for å gjøre dette. Det er ikke bare et økonomisk spørsmål hvem som vil ha råd til å drive med slike avsløringer, og ikke minst hvordan dette vil være bærekraftig for miljøet på kloden.

Så uansett om man vil bruke KI offensivt til å forbedre jobber, liv, samfunn eller om man vil begrense disse teknologienes effekt på alle aspekter av menneskers eksistens: Du må bruke KI for å kunne gjøre det du vil.

Ikke minst vil dette være viktig når vi oppnår det som alle disse forfatterne beskriver som nærmest et nytt big bang i verdens historie: singularity – tidspunktet da maskinene blir smartere enn mennesker.

-

Kilder: Inga Strümke: Maskiner som tenker. Kagge forlag 2023. Reid Hoffman: Impromptu. Amplifying Our Humanity Through AI. Dallepedia 2023. Kai-Fu Lee og Chen Quifan: AI 2041: Ten Visions for Our Future. Currency 2021.