La compañía OpenAI publicó recientemente una investigación sobre los usos indebidos de ChatGPT por parte de actores maliciosos que han intentado aprovechar esta tecnología para cometer hechos ilícitos en diversas partes del mundo.
En su informe, la empresa explicó cómo logró identificar y eliminar perfiles dedicados a engaños amorosos, robo de identidad y campañas de manipulación. A esto se le suma una campaña de desprestigio contra la primera ministra de Japón.
Tras estos hallazgos, la firma destacó que es urgente mejorar la vigilancia y las restricciones sobre las herramientas de inteligencia artificial para evitar este tipo de abusos.
OpenAI reveló usos indebidos de ChatGPT
Según la investigación de OpenAI, cuentas vinculadas a la policía de China utilizaron ChatGPT para lanzar campañas de manipulación política. El caso más destacado fue el bloqueo de un usuario supuestamente asociado a las fuerzas de seguridad chinas, quien intentaba organizar una operación de desprestigio contra la primera ministra de Japón, Sanae Takaichi.
Al respecto, la compañía estadounidense señaló que esta campaña tendría como objetivo desprestigiar a la mandataria tras sus críticas públicas a la situación de los derechos humanos en Mongolia.
Por otra parte, el informe detalla que actores maliciosos, principalmente en Asia, utilizaron el chatbot para llevar a cabo engaños amorosos. Por ejemplo, se detecó un caso en Camboya en el que los estafadores usaron la IA para captar a hombres en Indonesia mediante la creación de aplicaciones de citas falsas.
Al respecto, estos usuarios le pidieron al chatbot que generara logotipos y fotos falsas de mujeres. Adicionalmente, ChatGPT asesoró a los delincuentes en temas de impuestos para dar mayor credibilidad a su fachada de lujo.
Respecto al modus operandi, OpenAI precisó que los actores maliciosos captaban a las víctimas con anuncios engañosos. Es decir, les presentaban perfiles falsos dándoles la opción de escoger uno de ellos y entablar conversaciones con un supuesto recepcionista virtual.
Seguidamente, la estafa se trasladaba a Telegram, donde personas reales utilizaban ChatGPT para redactar mensajes románticos o subidos de tono. El objetivo final era ganarse la confianza de los usuarios para arrastrarlos a plataformas de citas falsas y robarles su dinero.
Suplantación de identidad
El informe de OpenAI también reveló otro de los usos indebidos de ChatGPT, donde los delincuentes se hicieron pasar por agentes de la ley o firmas legales de Estados Unidos. Según la investigación, los estafadores usaron la IA para falsificar credenciales del Colegio de Abogados de Nueva York.
Además, publicaban contenido engañoso en redes sociales que parecía profesional para atraer a víctimas. Específicamente, contactaban a personas que ya habían sido estafadas anteriormente, fingiendo ser representantes oficiales para volver a engañarlas.
Información de Infobae / redacción Tecnoflash
No dejes de leer: Xiaomi Tag: el nuevo localizador de objetos compatible con iOS y Android
Usa la tecnología con inteligencia, únete a nuestras redes sociales hoy
