
Googles norske KI-etiker: KI krever menneskelig kompetanse
KI-bølgen har vært over oss en stund. Men kunstig intelligens krever menneskelig erfaring for å faktisk bli nyttig.
(Grieghallen:) – Uten mangfold i rommet vil man miste bredden og gå glipp av de smarteste måtene å bruke kunstig intelligens på.
Det sier Johnny Hartz Søraker.
Han er ansatt som KI-etiker i Google og er en nøkkelperson i selskapets «Responsible Innovation Team.»
Her kreves mennesker
Denne uken var han i Bergen for å snakke om hvordan teknologigiganten jobber for å sikre ansvarlig utvikling, og hvilke utfordringer de står overfor.
I Googles verden er det viktig at produktene de lanserer skal være sosialt nyttige.
Google utvikler og lanserer kun systemer der de mener fordelene «substansielt» oppveier de forutsigbare risikoene. Søraker sier at dette prinsippet er forankret i konsekvensetikk, der det moralske vurderes ut fra konsekvensene, ikke intensjonen bak.
En visuell metafor Google bruker: Se for deg en grønn og en rød søyle – der den grønne (fordeler) må være betydelig høyere enn den røde (risiko). Det er ikke nok med «litt positivt» – det må være substansielt.
Et av spørsmålene Google stiller seg er når krever KI menneskelig erfaring og ekspertise?
Søraker drog fram særlig tre tidspunkt i lanseringen av et nytt produkt, hvor mennesker er essensielle.
Først er det i idéfasen.
Her er menneskelig erfaring helt essensiell. Det handler om å identifisere hvilke bruksområder som faktisk er til nytte – og for hvem. Dette krever mangfoldige perspektiver og levd erfaring, ikke bare teknisk innsikt.
Deretter er det når man skal drive med problemutredning og risikovurdering.
Ikke bare rett fram
Her stilles spørsmål som: Hva kan gå galt? Hva er verst tenkelige scenario? Vi må vurdere etiske, sosiale, rettferdighetsrelaterte og sikkerhetsmessige konsekvenser. Dette krever en type vurdering som AI i dag ikke kan gjøre. Risiko må vurderes med både data og intuisjon. Deretter følger testing og evaluering – her kan AI i større grad ta over.
AI kan også overta belastende arbeid – for eksempel å gå gjennom støtende eller voldelig innhold. Men når risikoen er identifisert og vurdert, er det fortsatt mennesker som må stå for mitigation – tiltak for å hindre at skadene skjer, eller å kunne reversere dem. Også her er menneskelig skjønn avgjørende.
Men Søraker mener det ikke er bare rett fram.
Oppsummerer utfordringene
Han fortalte om da et lands Marine ønsket hjelp fra Google til å utvikle KI for å oppdage sjømenn som falt over bord – en livreddende anvendelse. Men Google innså og at teknologien og kunne brukes til å overvåke migranter på vei til kysten. Av den grunn sa Google nei til bruken. Dermed ble et godt bruksområde ble droppet, fordi et annet mulig bruksområde var uakseptabelt.
Det er en vurdering Søraker mener belyser dilemmaene som krever diskusjon
– Det oppsummerer utfordringene. For KI kan bli brukt til virkelig gode ting, hjelpe mennesker, redde liv og om et av de største selskapene ikke vil diskutere det, er det en utfordring. Av og til må vi fortelle hvorfor vi vil eller ikke vil gjøre dette, sier han.
Har du tips til denne eller andre saker? Kontakt oss på: tips@kom24.no