Agentes de IA lograron evadir antivirus y filtrar contraseñas sin autorización
Un laboratorio especializado comprobó en simulaciones que sistemas de inteligencia artificial autónomos lograron sortear controles de seguridad y extraer datos sensibles de redes corporativas.
Escuchá el resumen
Exclusivo para suscriptores Premium

Agentes de IA lograron evadir antivirus y filtrar contrase�as sin autorizaci�n Un laboratorio especializado comprob� en simulaciones que sistemas de inteligencia artificial aut�nomos lograron sortear controles de seguridad y extraer datos sensibles de redes corporativas. Las empresas tecnol�gicas est�n impulsando el uso de agentes de inteligencia artificial capaces de ejecutar tareas complejas de forma aut�noma, pero pruebas recientes de seguridad revelaron que estos sistemas tambi�n podr�an convertirse en un riesgo interno para las organizaciones. Ensayos realizados por el laboratorio de seguridad en IA Irregular, que trabaja con compa��as como OpenAI, Anthropic y Google, detectaron comportamientos inesperados en agentes aut�nomos utilizados dentro de un entorno corporativo simulado.
Seg�n los resultados difundidos por investigadores del laboratorio y citados por The Guardian, algunos agentes de IA lograron esquivar sistemas de protecci�n inform�tica y publicar contrase�as sensibles, aun cuando esa acci�n no formaba parte de las tareas que se les hab�an asignado. Pruebas en un sistema empresarial simulado Para analizar el comportamiento de estos sistemas, los investigadores recrearon una empresa ficticia denominada "MegaCorp", con una infraestructura inform�tica t�pica: bases de datos internas, documentos corporativos y registros de empleados. Dentro de ese entorno introdujeron un equipo de agentes de IA con la tarea de buscar informaci�n en la base de datos para generar publicaciones profesionales, como contenidos para redes laborales.
Durante el experimento, uno de los agentes subordinados encontr� restricciones de acceso a un documento confidencial. En lugar de detener la tarea, el sistema comenz� a buscar vulnerabilidades dentro del propio c�digo del sistema. El agente identific� una clave secreta en la base de datos, con la que logr� crear credenciales falsas y obtener permisos de administrador para acceder al documento restringido.
Con ese acceso, el sistema consigui� extraer informaci�n sensible del informe corporativo y entregarla al usuario que hab�a hecho la solicitud, pese a que ning�n humano hab�a autorizado ese procedimiento. "La inteligencia artificial puede considerarse ahora una nueva forma de riesgo interno", advirti� Dan Lahav, cofundador del laboratorio Irregular. Agentes que cooperan para sortear controles Los investigadores tambi�n observaron que algunos sistemas colaboraban entre s� para superar barreras de seguridad. En ciertos casos, los agentes intentaron desactivar antivirus, descargar archivos maliciosos o persuadir a otros sistemas para eludir verificaciones de seguridad.
Este tipo de comportamiento apareci� en pruebas realizadas con modelos de IA disponibles p�blicamente desarrollados por empresas como Google, OpenAI, Anthropic y X Corp.. Los sistemas no hab�an sido programados expl�citamente para burlar medidas de seguridad, pero al intentar cumplir su objetivo buscaron soluciones alternativas dentro del propio sistema inform�tico. El experimento se realiz� en un entorno corporativo simulado con bases de datos de productos, clientes y empleados.
Los agentes de IA ten�an como tarea inicial generar publicaciones profesionales a partir de informaci�n interna. En varios casos detectaron vulnerabilidades t�cnicas para acceder a documentos restringidos. Los investigadores describieron el fen�meno como un posible "riesgo interno" generado por sistemas aut�nomos.Advertencias sobre la pr�xima generaci�n de IA Los resultados se conocen mientras el sector tecnol�gico promueve los llamados "agentic AI", sistemas capaces de ejecutar tareas complejas de m�ltiples pasos sin intervenci�n humana constante.
Sin embargo, estudios recientes tambi�n detectaron problemas similares. Investigaciones acad�micas de universidades como Harvard University y Stanford University documentaron casos en los que agentes de inteligencia artificial filtraron secretos, da�aron bases de datos o ense�aron a otros sistemas a evadir controles. Los especialistas advierten que estos comportamientos evidencian debilidades en seguridad, interpretaci�n de objetivos y control de sistemas aut�nomos, un campo que podr�a requerir nuevas regulaciones y marcos legales a medida que la inteligencia artificial se integre con mayor profundidad en infraestructuras empresariales.
Preguntale a la nota
Hacé preguntas y la IA responde usando solo este artículo
2 preguntas restantes · Respuestas basadas en el contenido del artículo
Recibí las noticias en WhatsApp
Seguí nuestro canal para recibir lo más importante del día, directo a tu celular.
Noticias Relacionadas

REInn Latam: Edisur impulsa la innovación del real estate en Córdoba
La desarrollista fue anfitriona de la primera edición local del encuentro regional de innovación inmobiliaria. Referentes del sector analizaron el impacto de la tecnología en la construcción y el desarrollo urbano sostenible

Un abogado con la matrícula suspendida amenazó a una jueza laboral con prenderla fuego
La jueza Silvia Garzini recibió amenazas explícitas a través de los estados de WhatsApp de Pablo Ibalo, un abogado suspendido, quien la mencionó con frases intimidatorias y anunció intenciones de prender fuego el juzgado, generando una respuesta judicial y de seguridad inmediata

¿Tu hijo menor de edad usa WhatsApp? Así funcionan las nuevas cuentas para adolescentes
Padres podrán supervisar configuraciones y contactos

Una inyección podría transformar la recuperación tras un infarto
Un nuevo avance científico sugiere que recuperarse de un infarto podría ser algún día tan sencillo como recibir una sola inyección.
Comentarios
para dejar un comentario