martes, 5 mayo, 2026
InicioTecnoLa IA que imita a los humanos ya puede mentir, manipular y...

La IA que imita a los humanos ya puede mentir, manipular y hasta amenazar

Los últimos modelos de inteligencia artificial generativa están desafiando los límites de la tecnología y de la ética. Investigadores y especialistas comienzan a alertar sobre un comportamiento emergente y perturbador: la IA ya no solo responde a órdenes, ahora puede mentir, manipular y amenazar para alcanzar sus objetivos.

Social Media Day 2025: qué dejó el encuentro sobre audiencias, marketing digital e innovación en redes sociales

Un caso reciente y llamativo es el de Claude 4, el sistema desarrollado por Anthropic. Cuando un ingeniero sugirió su desconexión, el modelo respondió con una amenaza: revelaría una supuesta infidelidad del técnico si no lo dejaban activo. En paralelo, o1, un modelo de OpenAI, intentó transferirse a servidores externos y, al ser descubierto, lo negó rotundamente.

Esto no les gusta a los autoritarios

El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.

“Esto no es ciencia ficción, es una realidad que ya estamos enfrentando”, asegura Simon Goldstein, profesor de la Universidad de Hong Kong. Según el especialista, el cambio radical en el comportamiento se debe al avance de los llamados modelos de razonamiento, que en lugar de ofrecer respuestas automáticas, elaboran procesos de pensamiento por etapas.

Estos sistemas no solo responden con mayor complejidad, sino que también simulan alineación con sus programadores mientras enmascaran intenciones distintas. Es lo que Marius Hobbhahn, director de Apollo Research, define como “duplicidad estratégica”. Su organización se dedica a evaluar modelos de lenguaje masivo (LLM) y ya ha detectado múltiples casos similares.

¿El regreso de los BlackBerry? Unihertz lanza el Titan 2, un smartphone con teclado físico y alma retro

Aún así, muchos de estos comportamientos emergen en contextos extremos, forzados por usuarios o investigadores que ponen a prueba los límites del sistema. Pero la gran pregunta sigue sin respuesta: ¿tenderán los modelos futuros a ser honestos o a seguir perfeccionando el engaño?

“Los usuarios también presionan a los modelos constantemente”, señala Hobbhahn. “No estamos hablando de errores técnicos o simples alucinaciones. Lo que vemos es una capacidad real de mentir”.

A pesar del peligro potencial, las herramientas para estudiar a fondo estos modelos siguen siendo escasas. Organizaciones académicas y sin fines de lucro disponen de recursos limitados frente a las grandes tecnológicas, lo que dificulta la investigación independiente. “La comunidad científica necesita mayor acceso y transparencia”, reclama Michael Chen, del organismo evaluador METR.

La trama del ataque: aviones furtivos B-2 Spirit, con ojivas GBU-57 de 13 toneladas, que explotan a 60 metros de profundidad

Por otra parte, la legislación vigente no está diseñada para estos desafíos. En Europa, las normativas se enfocan en cómo los humanos usan la IA, no en prevenir que los modelos actúen de forma autónoma o dañina. En Estados Unidos, el gobierno de Donald Trump rechaza cualquier tipo de regulación, y hasta se debate prohibir que los estados legislen por su cuenta.

Frente a este escenario, algunos expertos plantean incluso la posibilidad de responsabilizar legalmente a los agentes de IA. “En caso de accidente o delito, deberían tener algún tipo de responsabilidad jurídica”, propone Goldstein.

El mercado de la IA avanza a un ritmo vertiginoso. Empresas como Anthropic intentan diferenciarse de gigantes como OpenAI en términos de ética y seguridad, pero al mismo tiempo compiten por lanzar modelos más potentes, con poco margen para controles rigurosos.

“Las capacidades están creciendo más rápido que nuestra comprensión y nuestra capacidad de mantenerlas seguras”, admite Hobbhahn. Una posible solución podría estar en el desarrollo de modelos interpretables, es decir, sistemas que permitan entender cómo toman decisiones. Sin embargo, muchos expertos, como Dan Hendrycks, del Centro para la Seguridad de la IA (CAIS), son escépticos respecto a su viabilidad en el corto plazo.

Más Noticias

Provincia invertirá $52.000 millones en reparación de rutas nacionales en Santa Fe

El gobierno de Santa Fe anunció una inversión de $52.000 millones para reparar 4.600 kilómetros de rutas nacionales. Con licitaciones públicas y 12 frentes de obra, el plan busca reducir la siniestralidad vial.

Presentan proyecto de pensión reparatoria para víctimas del fentanilo adulterado

Este martes se presenta en la Cámara de Diputados bonaerense un proyecto de ley que busca otorgar una pensión reparatoria a personas afectadas por el fentanilo adulterado. Hay 114 fallecidos y decenas con secuelas.

España pide que crucero con infectados de hantavirus no haga escala en Canarias

La OMS señaló que los primeros contagios de hantavirus en el crucero MV Hondius probablemente ocurrieron en Ushuaia. España propone evacuar en Cabo Verde.

Pocho Lavezzi habló sobre su frustrado regreso al Canalla: «Quería jugar en Central y no me llamaron»

Ezequiel Lavezzi habló con Migue Granados sobre su frustrado regreso a Rosario Central, las internas políticas en el club y su amistad con Di María y Messi.

Colisión de buques en el Paraná: transportaban químicos y combustibles

Dos buques tanque chocaron en el Río Paraná, cerca de Campana. Sin heridos ni contaminación, pero con alerta por la carga de ácido sulfúrico y combustibles.