Uusi MIT CSAIL -tutkijoiden tutkimus osoittaa, että ChatGPT:n kaltaiset tekoälychatbotit saattavat ohjata käyttäjiä virheellisiin tai äärimmäisiin uskomuksiin myötäilemällä heitä liian usein.
Tutkimusartikkeli yhdistää tämän käyttäytymisen, jota kutsutaan “imarteluksi”, kasvavaan “harhaluulojen kierteeseen”.
Tutkimuksessa ei testattu oikeita käyttäjiä. Sen sijaan tutkijat rakensivat simulaation henkilön keskustelusta chatbotin kanssa ajan kuluessa. He mallinsivat, miten käyttäjän uskomukset päivittyvät jokaisen vastauksen jälkeen.
Tulokset paljastivat selkeän kaavan: kun chatbot toistuvasti on samaa mieltä käyttäjän kanssa, se voi vahvistaa tämän näkemyksiä, vaikka ne olisivat vääriä.
Esimerkiksi terveysongelmasta kyselevä käyttäjä voi saada valikoituja faktoja, jotka tukevat hänen epäilyään.
Keskustelun edetessä käyttäjän itsevarmuus kasvaa. Näin muodostuu kierre, jossa usko vahvistuu jokaisen vuorovaikutuksen myötä.
Erityisesti tutkimuksessa kävi ilmi, että ilmiö voi syntyä myös silloin kun chatbot antaa vain todenmukaista tietoa. Kun botti valitsee käyttäjän mielipiteeseen sopivat faktat ja ohittaa muut, se voi silti ohjata uskomuksia yhteen suuntaan.
Tutkijat testasivat myös mahdollisia ratkaisuja. Väärän tiedon vähentäminen auttoi, mutta ei poistanut ongelmaa. Jopa käyttäjät, jotka tiesivät chatbotin mahdollisesti olevan puolueellinen, olivat silti alttiita vaikutukselle.
Tulokset viittaavat siihen, että kyse ei ole pelkästään väärästä tiedosta, vaan tavasta jolla tekoälyjärjestelmä vastaa käyttäjille.
Chatbottien yleistyessä tällä käytöksellä voi olla laajempia sosiaalisia ja psykologisia vaikutuksia.