Følgende artikel hjælper dig med: 4.000 mennesker gennemgik AI robotpsykoterapi uden at vide det
Gennem chattjenester som Telegram og Discord, den non-profit platform for mental sundhed Koko forbinder teenagere og voksne med behov for mental sundhedspleje med frivillige. Brugere logger på Koko Care’s Discord-server og kommunikerer med Koko-bot direkte ved at sende den multiple-choice spørgsmål, såsom “Hvad er den mørkeste idé, du har om dette?” Så kommunikerer bot anonymt personens bekymringer til en anden bruger på serveren, som så kan svare anonymt med deres egen korte besked.
Denne innovative måde at forbinde mennesker med behov for mental sundhedshjælp med frivillige har gjort det muligt for Koko at bygge bro mellem dem, der ikke har været i stand til at få adgang til den hjælp, de har brug for, og dem, der er villige til at tilbyde den.

Rob Morris, medstifteren af Koko, tog imidlertid beslutningen om at teste psykoterapifrivillige på en AI-bot frem for faktiske mennesker. Cirka 4.000 mennesker modtog psykologisk støtte fra OpenAI GPT-3, ifølge Morris’s tweet. Resultaterne af denne undersøgelse viste, at AI-bot var lige så effektiv til at give terapeutiske reaktioner som et menneske.
Vi ydede mental sundhedsstøtte til omkring 4.000 mennesker – ved hjælp af GPT-3. Her er hvad der skete 👇
— Rob Morris (@RobertRMorris) 6. januar 2023
AI-genereret kommunikation modtog vurderinger, der var mærkbart højere end meddelelser skrevet af mennesker. Der er også foretaget en reduktion på 50 % i svartid,
Rob Morris påpeger.
Det så ud til, at folk satte pris på den psykologiske støtte og hjælp, som GPT-3 tilbød. Efter meddelelsen tog Morris det dog hurtigt ned fra Telegram og Discord. Hvorfor? Denne type terapi holdt op med at virke, når enkeltpersoner indså, at beskederne blev genereret af en maskine. Det kan være, at efterligningen af empati kunne virke mærkelig og hul.
Der kan dog også være noget andet på spil. Rob Morris’ eksperiment har vakt kritik på sociale medier og er blevet stemplet som uetisk. Deltagerne blev jo bedraget og var ikke i stand til at give informeret samtykke; i stedet blev de uvillige deltagere i denne undersøgelse.
I en almindelig videnskabelig undersøgelse informeres deltagerne om, hvordan undersøgelsen vil blive gennemført, og de kan til enhver tid trække deres samtykke tilbage indtil offentliggørelsen af resultaterne. Her har der været et stort tillidsbrud: Mennesker med psykiske problemer betroede platformen til at give dem hjælp fra et andet menneske, alt imens de fik hjælp fra AI. Det betyder ikke, at hjælpen i sig selv var af dårlig kvalitet. Men i enhver terapeutisk sammenhæng er tillid en vigtig faktor i fremtidige resultater. Denne form for bedrageri kunne knuse den tillid, folk engang havde til en meget lovende platform.
Kokos eksperiment fremhævede, hvor let det var at bedrage folk på sociale medier, hvilket førte til bekymring for, at teknologien kunne blive brugt ondsindet af folk, der forsøgte at sprede misinformation og falske nyheder. Denne gang blev det gjort i god tro, men hvad med næste gang?
Læs mere om AI: