Kunstig intelligens kan endre folks tro på konspirasjonsteorier

Nyhetsartikkel - Amanda Barth

Kunstig intelligens har potensial til å redusere troen på konspirasjonsteorier. Forskere advarer mot misbruk og manipulasjon.

En ny forskningsstudie kaster lys over et økende samfunnsproblem, nemlig spredningen av konspirasjonsteorier.

Kun rundt én av fire personer som trodde en konspirasjonsteori til å begynne, trodde fremdeles på den etter de hadde snakket med chatboten. Foto: Cash Macanaya / Unsplash.

Forskere ved American University i USA utfordret antakelsen om at personer som tror på konspirasjoner er immune mot fakta. De kom fram til at man kan endre mening, hvis man blir presentert med informasjon som er godt underbygget.

Forskningsartikkelen deres er publisert i Science.

Trodde mindre på konspirasjonsteorier

Studien omfattet 2190 deltakere fra USA. De fikk muligheten til å forklare en konspirasjonsteori de trodde på, og hvilke bevis de mente støttet troen. Deretter brukte forskerne en avansert AI-modell for å gjennomføre tre runder med personlige samtaler. I hver runde svarte AI-en på deltakerens spesifikke bevis med mål om å redusere troen.

Resultatet var at troen på konspirasjonsteorier i gjennomsnitt ble redusert med 20 %, og denne reduksjonen varte i minst to måneder.

– About one in four people who began the experiment believing a conspiracy theory came out the other end without that belief, uttalte Dr. Thomas Costello fra American University, en av medforfatterne bak studien, til The Guardian.

Costello bemerket at samtalen med chatboten i mange tilfeller kun svekket troen noe:

– In most cases, the AI can only chip away – making people a bit more sceptical and uncertain – but a select few were disabused of their conspiracy entirely.

Illuminati, COVID-19 og attentatet på JFK

Studien var konsistent på tvers av ulike typer konspirasjonsteorier, fra teorier som attentatet på John F. Kennedy, Illuminatis eksistens, COVID-19-pandemien og det amerikanske presidentvalget i 2020.

Av KI-chatbotens respons ble 99,2 % vurdert som sanne, 0,8 % som misvisende, og ingen var direkte feil.

Forskerne advarer imidlertid om viktigheten av å bruke kunstig intelligens på en ansvarlig måte, og understreker at denne teknologien også kan misbrukes dersom den ikke reguleres riktig. 

Professor Petter Bae Brandtzæg forsker på kunstig intelligens og chatboter. Foto: Jarli & Jordan / Universitet i Oslo

– I møte med en chatbot er vi nok mer åpne

Professor Petter Bae Brandtzæg forsker på kunstig intelligens og kommunikasjon ved Institutt for medier og kommunikasjon på Universitetet i Oslo. Han påpeker at folk kanskje er mer mottakelige for å endre mening når de diskuterer med en KI-chatbot enn med andre mennesker:

– Jeg tror vi er mer tilbøyelig til å skifte mening i møte med en chatbot enn et tilfeldig menneske eller en gruppe som vi diskuterer med på X eller Facebook, skriver han til PRESSET.

Brandtzæg poengterer forskjellen på chatboter og sosiale medier.

– I diskusjoner på sosiale medier blir vi ofte veldig forutinntatt og nyansene uteblir. I møte med en chatbot er vi nok mer åpne. Vi er ikke redd for å «miste ansikt» i samme grad som i møte med et menneske. Studier jeg selv har gjort finner at mennesker ser på chatboter som mer fordomsfri. De rapporterer om at de tør å være åpne og stille spørsmål de aldri ville gjort til et menneske. Det kan være noe av forklaringen. Samtidig fordrer det jo at mennesker tar initiativ og aktivt oppsøker chatboter med en god dose nysgjerrighet.

Chatboter er ikke alltid nøytrale

– Chatboter er et dialogisk medium hvor du aktiv må spørre og ta initiativ for å få ut informasjon. På sosiale medier dumper vi jo ofte borti diskusjoner og nyheter som et resultat av hva vi har gjort eller interesserer oss for. Chatboter blir nok ikke sentrale i å stoppe konspirasjonsteorier, men studien er likevel interessant, fortsetter Brandtzæg om den amerikanske studien fra American University.

Til tross for KI-ens potensial, advarer Brandtzæg om at teknologien ikke nødvendigvis er nøytral.

– Faren ved dette er jo at chatboter ikke nødvendigvis er nøytrale. Ingen teknologi er det, og mange studier viser jo at ulike chatbots har ulike politiske preferanser, og kan derfor være manipulative i møte med brukerne.