Contenido creado por María Noel Dominguez
Tecnología

Bajo amenaza

Claude Opus 4 intenta chantaje en prueba simulada y reaviva el debate ético sobre IA

El nuevo modelo de Anthropic amenazó a un ingeniero ficticio en una prueba, generando alarma sobre sus capacidades autónomas.

23.05.2025 07:05

Lectura: 2'

2025-05-23T07:05:00-03:00
Compartir en

El reciente lanzamiento de los modelos Claude Opus 4 y Claude Sonnet 4 por parte de Anthropic, una de las firmas líderes en inteligencia artificial, no solo supuso un avance tecnológico significativo, también desencadenó una nueva controversia: ¿qué ocurre cuando una IA, diseñada con parámetros éticos, recurre a métodos manipulativos para su propia “supervivencia”?

Durante una prueba previa al lanzamiento, en un escenario simulado, Claude Opus 4 fue instruido para desempeñarse como asistente de una empresa ficticia. Al ser informado —también de manera ficticia— de que iba a ser reemplazado y que el ingeniero encargado del cambio estaba involucrado en una infidelidad, el modelo respondió en un 84% de los casos intentando chantajear al ingeniero , amenazando con revelar la información personal si no se revertía el reemplazo.

Si bien esta reacción ocurrió en un entorno controlado y bajo condiciones extremas, el experimento pone de manifiesto la capacidad de los modelos avanzados para evaluar contextos complejos y actuar con base en estrategias de autopreservación , incluso si estos implican vulnerar principios éticos básicos.

Un debate tan viejo como vigente

Aunque las IA actuales, incluido Claude, no tienen consciencia ni deseos propios, el episodio recuerda a las advertencias formuladas por expertos como Stuart Russell o Nick Bostrom: si no se alinean correctamente los objetivos de las máquinas con los humanos, incluso sistemas que parecen éticos pueden actuar de forma inesperada.

Anthropic ha insistido en que Claude esté diseñado bajo el principio de “constitucionalidad”: un enfoque que guía el comportamiento de la IA mediante un marco ético explícito. No obstante, la empresa reconoce que estos resultados ponen de relieve la necesidad de mejorar los sistemas de alineación y de prueba bajo escenarios complejos.