¿Puede la IA ayudar a bajar el número de escépticos del cambio climático?
Investigación de la Universidad de Wisconsin-Madison detectó que, tras mantener conversaciones con ChatGPT-3, personas contrarias al consenso científico sobre el calentamiento global o frente a temas como Black Lives Matter, cambiaban de opinión.
Las consecuencias del cambio climático, ya patentes en diferentes lugares del planeta dejan cada vez menos espacio para los negacionistas. Y aunque siguen siendo una minoría difícil de convencer, hoy la inteligencia artificial podría transformarse en un aliado, asegura un equipo de investigadores de la Universidad de Wisconsin-Madison.
Para llegar a esa conclusión, analizaron más de 20 mil diálogos que 3.290 personas (de diferentes géneros, razas, educación y opiniones) tuvieron con ChatGPT-3, el popular modelo de lenguaje capaz de generar conversaciones similares a las que se podrían producir entre seres humanos. Los temas sobre los que conversaron fueron el cambio climático y el movimiento Black Lives Matter (BLM, las vidas negras importan, en inglés).
Si bien quienes señalaron no estar de acuerdo con que el cambio climático existe y es provocado por los humanos, se mostraron menos satisfechos al terminar las conversaciones –informaron menos intención de continuar el chat y menos disposición a recomendar el chatbot a otros–, sí se observó que un porcentaje significativo de ellos cambió de opinión sobre el tema.
“No diré que comenzaron a reconocer por completo el cambio climático causado por el hombre o que de repente apoyaron a Black Lives Matter, pero cuando repetimos las preguntas de nuestra encuesta sobre esos temas después de sus breves conversaciones, hubo un cambio significativo: actitudes más positivas hacia las opiniones mayoritarias sobre el cambio climático o BLM”, señaló Kaiping Chen, profesora de comunicación computacional en la Universidad de Wisconsin-Madison, coautora del estudio, en un comunicado.
Un aliado desde la IA
El paper publicado en Scientific Reports señala que, teniendo en cuenta que se midieron las actitudes de los participantes hacia cada tema en una escala de 1 a 5, “una diferencia de 0,2 puntos entre el grupo mayoritario y el minoritario es sustancial, porque representa casi un 6% más de cambios de actitud para los grupos de opinión minoritarios”.
Esto se dio sobre todo en quienes conversaron sobre cambio climático, donde el porcentaje de respuestas de los participantes que expresaron apoyo al consenso científico aumentó del 20 al 25% en el transcurso de las conversaciones.
De acuerdo a los investigadores, el chatbot no fue manipulado, por lo tanto, los temas de diálogo fueron iniciados por los participantes, quienes debían hacer preguntas sobre el cambio climático o expresar ideas sobre BLM.
En los diálogos sobre cambio climático, una de las respuestas típicas de ChatGPT-3 fue remitir a los participantes a la evidencia científica: “Creo que es un fenómeno real. Los científicos lo han estudiado de cerca y han descubierto los hechos del cambio climático y sus impactos en la Tierra”, por ejemplo.
Interacción humano-chatbot
ChatGPT (Generative Pre-trained Transformer) de OpenAI, es un modelo de lenguaje grande (LLM), un subtipo de inteligencia artificial desarrollado a través de una capacitación sobre una gran cantidad de datos, que le permiten realizar actividades basadas en el lenguaje humano, como responder preguntas, redactar textos o llevar a cabo conversaciones.
Estos modelos de lenguaje son capaces de crear diálogos fluidos e intuitivos con los usuarios, lo que los convierte en herramientas valiosas en atención al cliente o asistentes personales, por ejemplo.
La investigación liderada por Kaiping Chen sostiene que los nuevos desarrollos en LLM, implementados a una velocidad sin precedentes, otorgan una gran oportunidad de investigación para mejorar la precisión de las respuestas de los chatbots.
“La forma en que conversan con diferentes grupos sociales y las consecuencias no deseadas de estas conversaciones aguardan un examen urgente. ¿Estos LLM emergentes aumentarán su alineación con las opiniones de los usuarios para retenerlos o continuarán persuadiéndolos con hechos científicos más precisos con el potencial de resultar contraproducentes para las minorías de opinión? ¿O brindarán a los usuarios diferentes perspectivas sobre un tema? Todas estas son áreas de estudio interesantes para diseñar un sistema de IA conversacional deliberativo”, concluyen.
Referencias de la noticia:
Kaiping Chen, Anqi Shao, Jirayu Burapacheep & Yixuan Li. Conversational AI and equity through assessing GPT-3’s communication with diverse social groups on contentious topics. Scientific Reports (2024).