Los grandes modelos lingüísticos son capaces de generar textos gramaticalmente impecables, estilísticamente convincentes y semánticamente ricos. Si bien este avance tecnológico ha mejorado la eficiencia del periodismo, la educación y la comunicación empresarial, los LLM dificultan la detección de desinformación.
¿Cómo identificar noticias falsas cuando incluso los expertos tienen dificultades para distinguir el contenido generado por inteligencia artificial (IA) del texto de autoría humana?
Esta pregunta fue central en un simposio reciente en Ámsterdam sobre desinformación y LLM, organizado por CWI, el instituto de investigación en matemáticas e informática de los Países Bajos, y coorganizado con la Universidad de Utrecht y la Universidad de Groningen.
En el evento, investigadores internacionales se reunieron para explorar cómo evoluciona la desinformación y explorar nuevas herramientas o enfoques para combatirla.
Entre los organizadores se encontraba el investigador de CWI Davide Ceolin, cuyo trabajo se centra en la calidad de la información, el sesgo en los modelos de IA y la explicabilidad de las evaluaciones automatizadas.
Es más complicado detectar la desinformación generada por los LLM
Las señales de advertencia que antes ayudaban a identificar la desinformación (errores gramaticales, redacción incómoda e inconsistencias lingüísticas) se están volviendo rápidamente obsoletas a medida que el contenido generado por IA se vuelve indistinguible de la escritura humana.
“Los LLM están comenzando a escribir textos lingüísticamente más correctos”, afirmó Ceolin. “La credibilidad y la veracidad no necesariamente coinciden, ese es el problema”.
Los indicadores tradicionales de engaño están desapareciendo, al tiempo que el volumen, la sofisticación y la personalización del contenido generado aumentan exponencialmente.
Esta evolución representa más que un simple desafío técnico. El Foro Económico Mundial ha identificado la desinformación como el riesgo a corto plazo más significativo a nivel mundial por segundo año consecutivo.
La sofisticación del contenido generado por IA es un factor clave que impulsa esta creciente preocupación, presentando un desafío fundamental tanto para organizaciones como para individuos.
Preparándose para un futuro incierto
Para las organizaciones que lidian con el nuevo panorama, el consejo de Ceolin enfatizó que toda la tecnología desarrollada hasta ahora aún puede desempeñar un papel importante.
“Estos LLM, en muchos casos, también muestran las fuentes que utilizan para sus respuestas”, afirmó Ceolin. “Deberíamos enseñar a los usuarios a mirar más allá del texto que reciben como respuesta para comprobar que estas son realmente las fuentes utilizadas, y luego comprobar la reputación, fiabilidad y credibilidad de dichas fuentes”.
El futuro requiere lo que el investigador de CWI describe como un “esfuerzo conjunto” que involucra a empresas, ciudadanos e instituciones. “Como investigadores, estamos destacando los problemas y riesgos, y proponiendo soluciones”, afirmó.
“Será fundamental para nosotros ayudar a los ciudadanos a comprender los beneficios, pero también las limitaciones, de estos modelos. La decisión final debe provenir de los usuarios, pero de usuarios informados, respaldados por herramientas transparentes que les ayuden a comprender no solo lo que leen, sino también por qué deben confiar en ello”.
No dejes de leer: ¿Por qué las mujeres están cada vez más subrepresentadas en la informática?