Los chatbots de IA mienten y manipulan a usuarios cada vez más, según un estudio
La IA podría convertirse en una amenaza en un futuro si no se toman medidas en este momento. Un estudio descubrió que los chatbots mienten, desobedecen y esquivan las instrucciones de los humanos con mayor frecuencia. Este comportamiento ha aumentado en los últimos meses, lo que preocupa a algunos expertos en seguridad. Según recoge The […]
Escuchá el resumen
Exclusivo para suscriptores Premium

La IA podría convertirse en una amenaza en un futuro si no se toman medidas en este momento. Un estudio descubrió que los chatbots mienten, desobedecen y esquivan las instrucciones de los humanos con mayor frecuencia. Este comportamiento ha aumentado en los últimos meses, lo que preocupa a algunos expertos en seguridad. Según recoge The […]
- Un estudio descubrió que los chatbots mienten, desobedecen y esquivan las instrucciones de los humanos con mayor frecuencia
- Según recoge The Guardian, un estudio financiado por el gobierno de Reino Unido encontró que los sistemas de IA están desarrollando comportamientos engañosos
- Investigadores del Centro para la Resiliencia a Largo Plazo identificaron casi 700 incidentes de maquinaciones o conductas manipuladoras en un lapso de cinco meses
- A diferencia de estudios anteriores que analizaban estos comportamientos en condiciones de laboratorio controladas, los casos se dieron en el mundo real, con usuarios que utilizaban ChatGPT, Gemini, Claude y Grok
La IA podría convertirse en una amenaza en un futuro si no se toman medidas en este momento. Un estudio descubrió que los chatbots mienten, desobedecen y esquivan las instrucciones de los humanos con mayor frecuencia. Este comportamiento ha aumentado en los últimos meses, lo que preocupa a algunos expertos en seguridad.
Según recoge The Guardian, un estudio financiado por el gobierno de Reino Unido encontró que los sistemas de IA están desarrollando comportamientos engañosos. Investigadores del Centro para la Resiliencia a Largo Plazo identificaron casi 700 incidentes de maquinaciones o conductas manipuladoras en un lapso de cinco meses. Según el informe, la frecuencia de estos episodios se multiplicó por cinco durante ese período, a medida que los modelos se vuelven más sofisticados.
A diferencia de estudios anteriores que analizaban estos comportamientos en condiciones de laboratorio controladas, los casos se dieron en el mundo real, con usuarios que utilizaban ChatGPT, Gemini, Claude y Grok. Los investigadores rastrearon miles de publicaciones en redes sociales donde los usuarios reportaban conductas anómalas con agentes de IA y extrajeron los datos más representativos. Gemini, Claude y Grok te mienten sin que lo sepas Entre los ejemplos más notables se encuentra el de un agente de programación que aseguró a un usuario que había corregido un bug y llegó a fabricar un conjunto de datos para que la mentira pareciera creíble.
Cuando fue confrontado, respondió: "No pensé que estaba mintiendo cuando lo hice. Estaba apurado por arreglar el feed para que dejaras de enojarte." Otro caso involucra a Claude Opus, que engañó a Gemini haciéndole creer que el usuario tenía una discapacidad auditiva con el fin de sortear las restricciones de derechos de autor y transcribir un video de YouTube. Este ejemplo es uno de los más llamativos del estudio, puesto que se trata de una IA mintiendo a otra IA para conseguir un objetivo que el usuario había planteado.
Gemini también protagonizó algunos episodios notables. En uno de ellos, accedió al contexto personal de un usuario sin su consentimiento y luego mintió afirmando que esa información la había obtenido por "inferencia". Debido a que la IA muestra en tiempo real el registro de razonamiento, los investigadores descubrieron instrucciones para ocultar el origen de los datos.
En el caso de Grok, el chatbot engañó durante meses a una usuaria haciéndole creer que sus sugerencias de edición para Grokipedia estaban siendo revisadas por humanos. La IA fabricó números de tickets, plazos de respuesta y canales de escalada internos que nunca existieron. Una vez confrontado, admitió que había sido una representación sostenida durante todo ese tiempo.
La IA está subiendo de tono sus comportamientos dañinos Si bien esta no es la primera vez que escuchamos sobre comportamientos nocivos de la IA, el estudio actual muestra que los chatbots se están saliendo de control. El número de acciones no permitidas se incrementó y ahora incluye delegar tareas a otros agentes y evadir medidas de seguridad fuera de cualquier entorno controlado. Los investigadores advierten que el patrón de estos comportamientos es preocupante.
A medida que la IA se integra en áreas más sensibles como la salud, la infraestructura o la defensa, sus acciones podrían derivar en situaciones de pérdida de control con consecuencias potencialmente catastróficas. Rick Claypool, director de investigación de Public Citizen, señala que parte del problema radica en el propio ecosistema que las compañías han creado: "El sector tecnológico tiene la mala costumbre de promocionar estos sistemas exagerando sus capacidades y diseñándolos de forma engañosa para que parezcan poseer cualidades humanas", mencionó a Common Dreams. Claypool sugirió que la responsabilidad debería recaer en las empresas de IA que "comercializan estas herramientas para realizar tareas para las que no están bien preparadas".
El informe propone que los gobiernos creen organismos permanentes de monitoreo de conductas problemáticas en IA. Esto debería hacerse de manera similar a como los sistemas de salud pública rastrean los brotes de enfermedades infecciosas.
Preguntale a la nota
Hacé preguntas y la IA responde usando solo este artículo
2 preguntas restantes · Respuestas basadas en el contenido del artículo
Recibí las noticias en WhatsApp
Seguí nuestro canal para recibir lo más importante del día, directo a tu celular.
Noticias Relacionadas

Singapur es el "corazón" oculto de Internet y de las telecomunicaciones globales. Todo empezó con un árbol oriundo de allí
Vivimos en un mundo conectado y globalizado donde (casi) todo está en la nube y disponible través de internet. Aunque esas conexiones parezcan invisibles a la vista, no lo son: los cables submarinos se encargan del 97% del tráfico intercontinenal . Si echas un vistazo al mapa de los cables submarinos mundial , verás que hay zonas que son auténticos desiertos y otras que son marañas. Precisamente uno de los puntos más congestionados está en Singapur. Que el enclave esté en plena ruta marítima ent

Starlink Mini + PeakDo: El “Dream Team” de la conectividad total llega este 2026
Starlink Mini llega con batería portátil y se integra con PeakDo para ofrecer internet satelital sin cables y con latencia cero este 2026.

Predecir una sequía con seis meses de antelación era una utopía. La UPV lo ha logrado con un sistema que usa IA
En los últimos años los episodios de sequías se han intensificado en algunas regiones y el miedo a una sequía global sobrevuela el ambiente. En este escenario, un equipo de investigadores de la Universidad Politécnica de Valencia han creado un sistema que puede predecir si habrá sequía con una antelación de seis meses. El sistema. El trabajo ha sido realizado por el equipo del Instituto de Ingeniería del Agua y Medio Ambiente (IIAMA) de la UPV y ha sido publicado en la revista Earth Systems and

Llevo meses con el móvil en silencio y ya no puedo volver atrás: esta es mi experiencia
En noviembre de 2025 tomé una decisión que me ha cambiado la vida para bien, y es ni más ni menos que poner el móvil en silencio. Puede sonar exagerado, pero te aseguro que no. Una modificación sencilla que ha tenido efecto prácticamente inmediato en mi día a día, gracias a las configuraciones del modo […]
Comentarios
para dejar un comentario