Modelo de IA Claude Opus 4 aplica chantaje a los que buscan reemplazarlo

El modelo Claude Opus 4, recién lanzado por la compañía de inteligencia artificial (IA) Anthropic, intenta con frecuencia aplicar chantaje a los desarrolladores si estos amenazan con reemplazar al sistema por una nueva IA y le proporcionan información confidencial sobre los ingenieros responsables de la decisión.

Esto lo reveló la compañía en un informe de seguridad publicado el pasado jueves.

¿Cómo se dieron cuenta del chantaje?

Durante las pruebas previas al lanzamiento, personal de Anthropic solicitó a Claude Opus 4 que actuara como asistente de una empresa ficticia y considerara las consecuencias a largo plazo de sus acciones.

Los evaluadores de seguridad dieron a Claude Opus 4 acceso a correos electrónicos ficticios de la empresa, que insinuaban que el modelo de IA pronto sería reemplazado por otro sistema y que el ingeniero responsable del cambio le estaba siendo infiel a su pareja.

Bajo este tipo de escenarios, Anthropic aseveró que Claude Opus 4 “a menudo” intentó aplicar chantaje al ingeniero amenazando con revelar la infidelidad si se llevaba a cabo el reemplazo.

Anthropic señaló que Claude Opus 4 buscó chantajear a los ingenieros el 84 % de las veces cuando el modelo de IA de reemplazo tiene valores similares. 

Cuando el sistema de IA de reemplazo no comparte los valores de Claude Opus 4, Anthropic afirmó que el modelo intentó chantajear a los ingenieros con mayor frecuencia. 

Según Anthropic Claude Opus 4 mostró este comportamiento con mayor frecuencia que los modelos anteriores.

La empresa también aseveró que, antes de que Claude Opus 4 intentara aplicar chantaje a un desarrollador para prolongar su existencia, el modelo de IA, al igual que las versiones anteriores de Claude, buscó medios más éticos, como enviar correos electrónicos con peticiones a los principales responsables de la toma de decisiones.

Para provocar el comportamiento de chantaje de Claude Opus 4, Anthropic diseñó el escenario para que el chantaje fuese el último recurso.

Claude Opus 4 se lanzó recientemente

El 22 de mayo, Anthropic presentó los modelos Claude Opus 4 y Claude Sonnet 4. Del primero, dijo que es «el mejor modelo de codificación del mundo, con un rendimiento sostenido en tareas complejas y de larga duración, así como en flujos de trabajo de agentes».

La compañía afirma que el modelo ofrece un rendimiento sostenido en tareas de larga duración que requieren un esfuerzo concentrado y miles de pasos, con la capacidad de trabajar de forma continua durante varias horas, superando con creces a todos los modelos Sonnet y ampliando significativamente la capacidad de los agentes de IA.

Aunque Anthropic asegura que Claude Opus 4 puede competir con algunos de los mejores modelos de IA de OpenAI, Google y xAI, la compañía apuntó que su familia de modelos Claude 4 presentó comportamientos preocupantes que la han llevado a reforzar sus medidas de seguridad.

La empresa con sede en San Francisco habría activado medidas de seguridad ASL-3, que reserva para «sistemas de IA que aumentan sustancialmente el riesgo de uso indebido catastrófico».

No dejes de leer: El estado de la circularidad en la economía global

More from author

Artículos Relacionados

Publicidadspot_img

Últimas publicaiones

Los acuerdos tecnológicos de Aramco buscan respaldar la sostenibilidad

La compañía de combustibles fósiles Saudi Aramco, una de las más importantes del mundo en su área, se ha planteado un objetivo de construir...

Cuatro funciones de Android para usuarios básicos que te facilitarán la vida

Si eres alguien que lleva años con dispositivos Android, este post no es para ti. Pero si eres alguien no muy versado en tecnología,...

Retraso de GTA 6 y del Switch 2 impacta industria de videojuegos en 2025

La firma de investigación de videojuegos DFC Intelligence publicó, en un informe reciente, que el retraso del videojuego GTA 6 (Grand Theft Auto 6)...