IA Sophia, la primera ciudadana androide del mundo
Sophia, la primera ciudadana androide del mundo.

Un estudio de la Escuela Politécnica Federal de Lausana (EPFL) concluyó que los grandes modelos de lenguaje (LMM), como la inteligencia artificial (IA) Chat-GPT, tienen mayor capacidad que los humanos para hacer cambiar la opinión de un oponente en un debate en línea.

Los expertos analizaron el poder de persuasión de estas IA tras enfrentar a 820 personas a cuatro tipos de debates. Uno contra otro humano que tenía previamente información personal sobre ellos; contra otro humano que no sabía nada de ellos; contra una IA informada previamente sobre ellos y contra una IA que no sabía nada de ellos.

Los resultados mostraron que los participantes que debatieron contra las IA con acceso a su información personal tenían 81,7% más de probabilidades de finalizar los debates de acuerdo con su oponente en comparación con los participantes que debatieron con otros humanos.

La capacidad persuasiva de las IA también era mayor que la de los humanos en los casos en los que no tenían información personal sobre su oponente. Aunque fue menor que cuando contaban con estos datos.

Según el comunicado de la institución, los expertos consideran que esto se debe a que, a partir del procesamiento masivo de datos, los LMM han aprendido que presentar su argumento de una determinada forma tiene más probabilidades de conducir a un resultado persuasivo.

IA persuasiva y ganadora

También concluyen que los LMM no solo son capaces de explotar eficazmente la información personal de su oponente para adaptar sus argumentos y persuadirle en conversaciones en línea, sino que lo hacen de forma mucho más avanzada que los humanos.

“Hay mucho que explorar aquí. Los modelos pueden estar haciendo cosas que ni siquiera conocemos todavía en términos de persuasión. Pueden improvisar a partir de todo el conocimiento que tienen”, afirmó el director del Laboratorio de Ciencia de Datos de la EPFL y responsable del estudio, Robert West.

En cuanto a futuras aplicaciones de esta cualidad de las IA, los expertos aseguran que las elecciones estadounidenses del próximo noviembre son un potencial escenario de experimentación. Al parecer, la gente intentará utilizar el poder de los LMM para influir en la opinión de los votantes.

No obstante, advirtieron que el uso de este poder de persuasión también conlleva riesgos asociados. Entre ellos, la posibilidad de usar una IA para suplantar perfiles de personas reales en línea con el fin de difundir desinformación en los foros de debate.

“El peligro es sobrehumano, como los chatbots. Estos crean argumentos convincentes y hechos a medida para impulsar narrativas falsas o engañosas en línea”, concluyó West.


El periodismo independiente necesita del apoyo de sus lectores para continuar y garantizar que las noticias incómodas que no quieren que leas, sigan estando a tu alcance. ¡Hoy, con tu apoyo, seguiremos trabajando arduamente por un periodismo libre de censuras!