Smilende mann i blazer poserer i et moderne kontorlandskap innendørs.
Forrige uke byttet hundretusenvis av mennesker fra ChatGPT til Claude – ikke på grunn av funksjoner, men på grunn av verdier. Valg av KI-modell har blitt et verdivalg. Et merkevarevalg som sier noe om hva du står for, skriver Lasse Maugesten i dette innlegget.

ME­NIN­GER:

Vis meg mer­ke­va­re­ne du kjø­per, og jeg skal for­tel­le deg hvem du er

«Vi vel­ger mer­ke­va­rer som mat­cher hvem vi er og hvem vi vil bli opp­fat­tet som. Det gjel­der klær­ne vi har på oss, bi­len vi kjø­rer og møb­le­ne vi kjø­per. Nå gjel­der det også KI-verk­tøy­et vi åp­ner hver mor­gen», skri­ver Las­se Mau­ge­sten, i det­te inn­leg­get. 

Publisert

I årevis har vi fortalt kunder at merkevarer må stå for noe. At verdier driver lojalitet.  At troverdighet bygges gjennom handling, ikke ord. Nå ser vi det samme skje med  verktøyene vi selv bruker hver dag. KI-leverandøren din er ikke lenger bare en  teknologileverandør. Det er et verdivalg, og dette valget sier noe om hvem du er og  hva du står for. 

Forrige fredag byttet hundretusenvis av ChatGPT-brukere til konkurrenten Claude,  ikke fordi det nye var bedre, men fordi det gamle hadde tatt et valg de ikke kunne stå  inne for. 

To røde linjer og et ultimatum 

Anthropic, selskapet bak KI-assistenten Claude, nektet å fjerne sikkerhetsbegrensninger i sin kontrakt med det amerikanske forsvaret. To røde  linjer: ingen masseovervåking av amerikanske borgere, ingen autonome  våpensystemer uten menneskelig kontroll.

Pentagon krevde at teknologien skulle  være tilgjengelig for «alle lovlige formål». Anthropic sa nei. Toppsjef Dario Amodei  skrev at selskapet ikke med god samvittighet kunne akseptere vilkårene. 

Reaksjonen fra Washington var brutal. President Trump beordret alle føderale etater  til å slutte å bruke Anthropic. Forsvarsminister Pete Hegseth stemplet selskapet som  en sikkerhetsrisiko i forsyningskjeden – en betegnelse som aldri tidligere er brukt  mot et amerikansk selskap.

Timer senere kunngjorde OpenAI at de hadde inngått  avtalen Anthropic nektet. Sam Altman innrømmet selv at det så «opportunistisk og  slurvete» ut, og mandag reviderte selskapet kontrakten for å legge inn de samme  begrensningene Anthropic hadde krevd fra starten. 

Først i kategorien, først i fallet 

De fleste norske byråer, markedsavdelinger og kommunikasjonsfolk bruker Copilot,  ChatGPT eller Claude i arbeidshverdagen. ChatGPT har lenge dominert, ikke  nødvendigvis fordi det er det beste verktøyet, men fordi OpenAI var først ute, ble  mest omtalt og bygget den sterkeste merkevaren i kategorien. Den som definerer  kategorien, eier den – helt til noe endrer spillereglene. 

Denne uken endret spillereglene seg.

Avinstalleringer av ChatGPT steg 295 prosent  på lørdag, ifølge analyseselskapet Sensor Tower. Claude ble den mest nedlastede  gratisappen i Apples App Store. Over 900 ansatte i OpenAI og Google signerte et  åpent brev som oppfordret selskapene til å stå sammen mot Pentagons krav. Mark  Ruffalo og Katy Perry ba følgerne sine bytte. Merkevaren som ga ChatGPT en  dominerende posisjon, ble på én helg den samme merkevaren folk ville ta avstand  fra. 

Lommeboken ble en verdierklæring

Folk byttet ikke fordi Claude er teknisk overlegen. De byttet fordi de ville markere et  standpunkt. Innen merkevareteori kalles det self-congruity – vi velger merkevarer  som matcher hvem vi er og hvem vi vil bli oppfattet som. Det gjelder klærne vi har på  oss, bilen vi kjører og møblene vi kjøper. Nå gjelder det også KI-verktøyet vi åpner  hver morgen. 

Skillelinjene er riktignok ikke så rene som sosiale medier vil ha det til. Anthropic har  selv kontrakter med Palantir og Amazon Web Services som gir amerikanske forsvars og etterretningsorganer tilgang til Claude. OpenAI har lagt inn sterkere  begrensninger etter helgens reaksjoner. Begge selskapene opererer i et geopolitisk  landskap der perfekte prinsipper ikke finnes. 

Men det endrer ikke hovedpoenget: for første gang fungerer valg av KI-verktøy som  en verdierklæring. Brukerne stemmer med abonnementet, og den stemmen har  konsekvenser for omdømmet til alle som bruker verktøyene – inkludert oss. 

Speilet vi ikke har sett i 

Kommunikasjonsbransjen rådgir kunder om tillit, omdømme og verdier hver eneste  dag. Vi ber dem ta stilling. Vi ber dem være tydelige. Vi ber dem velge. Spørsmålet nå  er om vi stiller de samme kravene til oss selv, også når det gjelder verktøyene vi  velger å jobbe med.

———————————————-

Dette er et meningsinnlegg, og gir uttrykk for skribentens mening. Har du lyst til å skrive i KOM24? Send ditt innlegg til meninger@kom24.no.



Powered by Labrador CMS