– Ironisk nok kan et “fremtidsverktøy” nå sette oss tilbake i tid når det kommer til etisk markedsføring, inkludering og mangfold. Så, hvordan kan vi unngå dette?
– Ironisk nok kan et “fremtidsverktøy” nå sette oss tilbake i tid når det kommer til etisk markedsføring, inkludering og mangfold. Så, hvordan kan vi unngå dette?

MENINGER:

KI-ærlighet kan gjøre blind

«Uten et velfungerende etisk kompass risikerer du å lage villedende og diskriminerende markedsføring med kunstig intelligens», skriver Marthe Dypvik Jensen og Torunn Holm.

Publisert

Den siste tiden har flere seriøse aktører fått kritikk for å ha delt KI-generert innhold som kan oppfattes som ekte. Fra Amnesty som brukte kunstige bilder for å spre oppmerksomhet om menneskerettighetsbrudd i Colombia, til Sparebank 1 Østlandet som lot KI-genererte “Harald (29)” dele sine beste spareråd. Sistnevnte bruker selv store deler av nettsidene sine til å lære oss hvordan vi skal unngå å bli svindlet på nett. Det sier noe om hvor lett det er å trå feil.

Som bransje står vi midt i et paradigmeskifte der vi i stadig større grad overlater produksjon av tekst og bilde til kunstig intelligens. 

Rundt oss ser vi også en voksende bølge KI-generert innhold som manipulerer virkeligheten, og som vi ubevisst konsumerer og deler videre. Og siden vi alle løper raskt for å holde tritt med en spennende og potensielt lønnsom utvikling, stopper vi ikke alltid opp for å reflektere. 

For øyeblikket er det få selskaper som har utarbeidet retningslinjer for sin KI-bruk, og det er bekymringsfullt. For bruk av verktøyene krever at vi har et velfungerende etisk kompass. 

De fleste vet at generativ KI ikke kan skille mellom sannhet og løgn. Men det at verktøyene gjentar og forsterker fordommer de har blitt matet med, er et viktig etisk aspekt som det dessverre ikke snakkes nok om. 

Ber du ChatGPT om å vurdere en person til en utlyst stilling vil den diskriminere søkeren basert på navn, studiested og bosted. Ber du Midjourney om et bilde av en administrerende direktør, uten en mer presis prompt, får du opp en hvit mann. Ber du om et bilde av en assistent, får du opp en kvinne. 

Og selv om du presiserer ønsket ditt tydelig, klarer ikke bildeverktøyene alltid å kjempe mot stereotypiene. I en studie publisert i The Lanccet i august prøvde forskere å generere et bilde av en svart lege som behandler hvite barn. Resultatet? Svarte leger ble vist, men ikke sammen med hvite barn. Og et bilde som skulle vise en gruppe med svarte fysikere inkluderte, uten noen som helst sammenheng, en sjiraff.

Ironisk nok kan et “fremtidsverktøy” nå sette oss tilbake i tid når det kommer til etisk markedsføring, inkludering og mangfold. Så, hvordan kan vi unngå dette?

I Spoon bruker vi begrepet “conscious prompting” fremfor “responsible AI”. Det ansvarliggjør oss i stedet for verktøyene. Vi skal være bevisste på inkludering, mangfold og etikk når vi gir instrukser til generative AI-verktøy og får noe tilbake. 

Til syvende og sist handler det om å skape sannferdig og inkluderende kommunikasjon ved å ta gjennomtenkte valg når vi bruker KI. Kun på denne måten kan vi sikre at våre leveranser alltid er i tråd med både våre og kundenes verdier. 

Vi håper dette er begynnelsen på en større diskusjon om bevissthet og ansvar ved bruk av kunstig intelligens.

———————————————-

Dette er et meningsinnlegg, og gir uttrykk for skribentens mening. Har du lyst til å skrive i KOM24? Send ditt innlegg til meninger@kom24.no.

Powered by Labrador CMS