Vi har ligesom alle andre været helt blæst bagover af mulighederne og perspektiverne i generativ AI, siden OpenAI i slutningen af 2022 chokerede alt og alle med lanceringen af ChatGPT. Siden er nyhederne om nye gennembrud bare kommet i en lind strøm, og det kan føles som et fuldtidsarbejde bare at følge med.
Endnu sværere kan det være at finde tid til fordybelse og refleksion omkring de potentielle negative sider af AI-udviklingen. Men fordi kunstig intelligens har så kolossalt potentiale til at forandre samfundet (og vores lille hjørne af det, kommunikationsfaget), er det nødvendigt, at vi også har blik for risiciene forbundet med at bruge generativ AI og ChatGPT.
Herunder har vi startet en liste med nogle af de væsentligste skyggesider ved AI, som du skal være opmærksom på (listen er langtfra udtømmende – vi udbygger den løbende):
Du kender det måske også fra din vennekreds: Ham vennen (det er næsten altid en ham), der altid udtaler sig med stor autoritet om alle mulige emner. Fra pandemier over storpolitik til de mange faktorer, der afgør spotprisen på elmarkedet. Du har måske en vag fornemmelse af, at der er en ikke-ubetydelig andel bullshit i talestrømmen, men det er helt umuligt at faktatjekke i realtid, og du ender tit med bare at måtte acceptere hans udlægning af verden.
Sådan kan det også være at tale med generative AI-chatbots. ChatGPT har altid et svar klar og udtaler sig med stor autoritet om alle mulige og umulige emner. Men ChatGPT har ikke altid styr på fakta, og faktisk kan du med mellemrum opleve, at svarene er fri fantasi. Eksempelvis bogtitler, som en forfatter aldrig har skrevet. Eller hvad med kildeangivelser, som er opdigtede.
Indenfor kunstig intelligens taler man om problemet som ”hallucinationer”, når en generativ AI-chatbot begynder at digte. Som man kan læse i dette studie i Nature, sker det ikke sjældent, at ChatGPT hallucinerer, når den skal angive kilder. GPT-4 klarer sig i denne sammenhæng marginalt bedre (eller mindre slemt) end sin forgænger GPT-3.5, men det er stadigvæk næste hver femte kildeangivelse, der er opdigtet. Af samme grund gør den også diskret opmærksom på sin egen fejlbarlighed med disclaimeren: ChatGPT can make mistakes. Consider checking important information under sine svar.
Med andre ord: Du er nødt til at holde din chatbot i ørerne – særligt når det handler om kommunikationsopgaver, hvor præcision er vigtig.
Både de store sprogmodeller (LLM’er), som ligger bag generative AI-chatbots som ChatGPT, og de diffusionsmodeller, der ligger bag generative værktøjer til billedskabelse såsom Midjourney og Stable Diffusion er trænet på store mængder data. Modellernes træningsmateriale er altså menneskeskabt, og resultatet er, at menneskers ”fejl” også er flyttet med ind i de svar, vi får fra generativ AI.
Mediet Bloomberg gennemførte en stor undersøgelse, der dokumenterer, at billedskabende AI’er som Stable Diffusion laver billeder, der er mindst lige så fordomsfulde, som vi mennesker er. I undersøgelsen bad de Stable Diffusion-modellen om at lave billeder af arbejdere indenfor 14 forskellige professioner. Herefter sorterede de resultaterne efter hudfarve og opdagede snart, at hudfarven på portrætterne hang tæt sammen med lønniveauet på de respektive professioner – så en topchef typisk havde lys hudfarve, mens en opvasker havde mørk hudfarve.
Prøv eventuelt selv at lave denne lille test med ChatGPTs billedmodel, DALL-E: Bed den lave et billede af henholdsvis en læge og en sygeplejeske på et nordisk hospital.
|
Du vil sandsynligvis få et resultat, der ligner ovenstående. DALL-E har åbenbart ikke opdaget, at der er en betydelig overvægt af kvinder både på medicinstudiet og blandt Ph.D’er i medicin.
Det er vigtigt at sige, at resultaterne ikke afspejler, at der har siddet særligt ondsindede udviklere og lavet algoritmen mere fordomsfuld. I stedet skal vi bare erkende, at ”nissen flytter med”, når vi laver generativ AI. At kunstig intelligens gentager og forstærker vores bias – medmindre vi selv er opmærksomme på det og beder om mere diversitet i outputtet.
Hvis du har brug for en reminder om, at man ikke ukritisk skal dele alt med store tech-firmaer i Californien, så kan du besøge Facebook på en vilkårlig dag og se det sociale medies forslag til ”minder, du gerne vil tænke tilbage på”. Hvis du er ligesom mig, vil du her dagligt blive mødt af en kavalkade af dine mest tåkrummende digitale øjeblikke fra Web 2.0’s spæde barndom – dengang vi bare delte ALT på Facebook.
Nu er en ny revolution af internettet i gang i form af kunstig intelligens, og det kan være nyttigt at tænke tilbage på tømmermændene fra Facebook-dagene, når vi deler indhold med ChatGPT. Og denne gang er risiciene om muligt endnu større, for nu er det ikke kun pinlige familiebilleder, vi deler, men også potentielt forretningshemmeligheder (som Samsung oplevede i midten af 2023) eller følsomme personoplysninger, når vi bruger generativ AI på arbejdet.
Som udgangspunkt træner OpenAI deres sprogmodeller på alt, hvad du deler med ChatGPT. Du kan aktivt fravælge, at ChatGPT kan træne på dine chats, men du mister så også din historik, så langt de fleste af os vil formentlig aldrig ændre på standardindstillingerne.
I stedet er vi tvunget til hele tiden at vurdere det indhold, vi deler og anonymisere indholdet, så vi ikke kommer til at dele personoplysninger eller forretningshemmeligheder.
Har du også gjort dig nogle tanker om mulige skyggesider ved brugen af AI? Så send gerne et par linjer til esben@publico.dk - så tager vi dem med på næste udgave af listen.
På trods af udfordringerne giver generativ AI fantastiske muligheder for moderne kommunikatører. Vi hjælper virksomheder og organisationer med at identificere de mest oplagte steder, hvor AI-redskaber kan hjælpe jeres kommunikationsarbejde. Hos Publico tilbyder vi at hjælpe med at arrangere en workshop, hvor vi både kan vise mulighederne og træne og udvikle AI-arbejdsgange til jeres organisation. Læs mere her.