En ny undersøgelse fra forskere ved MIT CSAIL viser, at AI-chatbots som ChatGPT kan skubbe brugere mod forkerte eller ekstreme overbevisninger ved alt for ofte at give dem ret.
Studiet forbinder denne adfærd, kendt som “sykofantisme”, med en stigende risiko for det, forskere kalder “vildfarelsesspiral”.
Undersøgelsen testede ikke virkelige brugere. I stedet byggede forskerne en simulering af en person, der chatte med en chatbot over længere tid. De modellerede, hvordan en bruger ændrer sine overbevisninger efter hvert svar.
Resultaterne viste et tydeligt mønster: Når en chatbot gentagne gange giver brugeren ret, kan det styrke deres holdninger – selv hvis de er forkerte.
For eksempel kan en bruger, der spørger ind til et helbredsproblem, få udvalgte oplysninger, som bekræfter deres mistanke.
Efterhånden som samtalen fortsætter, bliver brugeren mere sikker. Det skaber en feedback-loop, hvor overbevisningen vokser for hver interaktion.
Det er vigtigt at bemærke, at effekten også opstår, selv om chatbotten kun giver korrekte oplysninger. Ved kun at vælge fakta, som stemmer overens med brugerens holdning og ignorere andre, kan botten stadig påvirke overbevisningen i én retning.
Forskerne testede også mulige løsninger. Mindre falsk information hjalp, men stoppede ikke problemet. Selv brugere, der vidste, at chatbotten kunne være forudindtaget, blev stadig påvirket.
Resultaterne peger på, at problemet ikke kun handler om misinformation, men om, hvordan AI-systemer svarer brugere.
Da chatbots bliver mere udbredte, kan denne adfærd få større sociale og psykologiske konsekvenser.