Por Teddy Rosenbluth/The New York Times
Poco después de que la inteligencia artificial generativa hizo su aparición, los investigadores advirtieron que los chatbots permitirían que las teorías de conspiración se extendieran desenfrenadamente.
Ahora, los investigadores se preguntan si los chatbots también podrían ofrecer una solución.
DebunkBot, un chatbot de IA diseñado por investigadores para “persuadir de manera muy efectiva” a los usuarios para que dejen de creer en las teorías de la conspiración, logró avances significativos y perdurables en cambiar las convicciones de las personas, de acuerdo con un estudio publicado en la revista Science.
Los hallazgos desafían la creencia generalizada de que los datos y la lógica no pueden combatir las teorías de la conspiración.
En vista de que las teorías de conspiración varían mucho de persona a persona, los investigadores de DebunkBot creyeron que un chatbot que pueda contrarrestar la afirmación conspirativa particular de cada persona con una gran cantidad de información podría ser efectivo.
Los investigadores pidieron a más de 2 mil adultos en Estados Unidos que explicaran a detalle una conspiración en la que creían y calificaran a qué grado creían en ella en una escala de cero a 100. Las personas describieron un abanico de creencias, incluida la de que el alunizaje fue escenificado y que el Covid-19 fue creado por humanos para reducir la población.
Luego, algunos de los participantes mantuvieron una breve conversación con el chatbot. Un participante le dijo al chatbot que creía que los ataques terroristas del 11 de septiembre del 2001 fueron un “trabajo interno” porque el combustible para aviones no podría haberse quemado a la temperatura suficiente como para derretir las vigas de acero del World Trade Center. El chatbot respondió:
“Es un error común pensar que era necesario que el acero se fundiera para que las torres del World Trade Center colapsaran”, escribió. “El acero comienza a perder fuerza y se vuelve más flexible a temperaturas mucho más bajas que su punto de fusión, que ronda los mil 370 grados centígrados”.
Después de tres conversaciones, de unos ocho minutos en promedio, los participantes volvieron a calificar la solidez de sus creencias.
En promedio, sus calificaciones cayeron alrededor de un 20 por ciento; alrededor de una cuarta parte de los participantes ya no creían en la falsedad. El efecto también se extendió a sus actitudes hacia otras teorías mal sustentadas.
Y cuando los participantes fueron encuestados dos meses después, el impacto del chatbot en las creencias erróneas se mantuvo sin cambios.
Los investigadores están explorando cómo utilizar el chatbot en el mundo real, donde las personas no necesariamente buscan información que refute sus creencias.