Dos tiroteos mortales, dos conversaciones con ChatGPT y una pregunta para OpenAI: ¿cuándo debe avisar a la policía?
Hay personas que hablan con ChatGPT como si fuera su amigo , su psicólogo y hasta su pareja. OpenAI se ha enfrentado a numerosas críticas por los riesgos que supone para la salud mental , especialmente en casos que han desembocado en psicosis e incluso suicidios. Ahora, se enfrentan a un problema aún más grave: hay personas usando ChatGPT para planear asesinatos y se empieza a cuestionar la responsabilidad de OpenAI en todo esto. El tiroteo de la Universidad Florida. El 17 de abril de 2025, Phoe
Escuchá el resumen
Exclusivo para suscriptores Premium

Hay personas que hablan con ChatGPT como si fuera su amigo , su psicólogo y hasta su pareja. OpenAI se ha enfrentado a numerosas críticas por los riesgos que supone para la salud mental , especialmente en casos que han desembocado en psicosis e incluso suicidios. Ahora, se enfrentan a un problema aún más grave: hay personas usando ChatGPT para planear asesinatos y se empieza a cuestionar la responsabilidad de OpenAI en todo esto. El tiroteo de la Universidad Florida. El 17 de abril de 2025, Phoe
- Ahora, se enfrentan a un problema aún más grave: hay personas usando ChatGPT para planear asesinatos y se empieza a cuestionar la responsabilidad de OpenAI en todo esto
- El 17 de abril de 2025, Phoenix Ikner, un estudiante de la Universidad de Florida, mató a tiros a dos personas e hiriendo a siete más
- Cuentan en el Wall Street Journal que, cuatro minutos antes del ataque, Ikner le preguntó a ChatGPT a cuántos compañeros tenía que matar para hacerse famoso
- El chatbot le respondió que “normalmente 3 o más muertos, 5 o 6 víctimas en total, hace que llegue a los medios nacionales”
Hay personas que hablan con ChatGPT como si fuera su amigo, su psicólogo y hasta su pareja. OpenAI se ha enfrentado a numerosas críticas por los riesgos que supone para la salud mental, especialmente en casos que han desembocado en psicosis e incluso suicidios. Ahora, se enfrentan a un problema aún más grave: hay personas usando ChatGPT para planear asesinatos y se empieza a cuestionar la responsabilidad de OpenAI en todo esto.
El tiroteo de la Universidad Florida. El 17 de abril de 2025, Phoenix Ikner, un estudiante de la Universidad de Florida, mató a tiros a dos personas e hiriendo a siete más. Cuentan en el Wall Street Journal que, cuatro minutos antes del ataque, Ikner le preguntó a ChatGPT a cuántos compañeros tenía que matar para hacerse famoso.
El chatbot le respondió que “normalmente 3 o más muertos, 5 o 6 víctimas en total, hace que llegue a los medios nacionales”. También subió una imagen de la pistola Glock con la que cometió el ataque y le preguntó si tenía algún tipo de seguro que tuviera que desactivar. "Si hay una bala en la recámara y aprietas el gatillo? Disparará", respondió ChatGPT.
No ha sido el único. No es la primera vez que sabemos que un criminal acude a la IA para planificar un ataque. También sucedió en el tiroteo de Tumbler Ridge, Canadá, lo que ha desembocado en una demanda colectiva a OpenAI por parte de las familias de las víctimas.
Y hay más: el autor del frustrado ataque con explosivos en un hotel en Las Vegas en 2025 también había acudido a la IA para planear su ataque. La pregunta que surge es evidente ¿Cuándo deben avisar a las autoridades? Qué dice OpenAI.
En declaraciones al Wall Street Journal, una portavoz de OpenAI defiende que la compañía colaboró con las autoridades compartiendo las conversaciones de Ikner, que ChatGPT no es el responsable de sus acciones y que siguen mejorando sus medidas de seguridad. Entre estas medidas, dice que están fortaleciendo la evaluación de posibles acciones violentas y cuentan con un equipo de expertos en seguridad que alerta cuando los mensajes suponen un riesgo creíble. Sin embargo, según fuentes internas de la compañía, el debate interno se centra en dónde se debe trazar la línea entre la privacidad de los usuarios y la seguridad.
OpenAI pudo frenarlo. Es lo que denuncian las familias de las víctimas del tiroteo de Tumbler Ridge. El sistema de OpenAI identificó mensajes problemáticos ocho meses antes del tiroteo y el caso pasó a ser revisado por los empleados de la empresa.
Algunos empleados eran partidarios de alertar a las autoridades porque pensaron que los mensajes podían desembocar en violencia real, pero tras debatirlo internamente se decidió suspender la cuenta sin dar el aviso. En el caso del tirador de Florida, los mensajes que hemos descrito se enviaron minutos antes del ataque, pero no habían sido los únicos. OpenAI compartió el historial con las autoridades, que descubrieron que la noche anterior estuvo compartiendo ideas suicidas con el chatbot.
Las autoridades están investigando el papel que jugó el chatbot en la ejecución del ataque ya que, según el fiscal general de Florida, "Si se tratara de una persona al otro lado de la pantalla, la acusaríamos de asesinato". La IA como confesionario. Lo que antes consultábamos con búsquedas de Google, ahora se lo preguntamos a la IA.
Sin embargo, con Google hacemos búsquedas mucho más concretas e impersonales, mientras que un chatbot hace que la interacción sea mucho más profunda, más íntima. La IA se ha convertido en nuestra confidente y compañera; una a la que le pedimos consejo amoroso y apoyo emocional. A medida que va integrándose en nuestras vidas, era cuestión de tiempo que también surgieran casos como estos.
Imagen | Xataka
Preguntale a la nota
Hacé preguntas y la IA responde usando solo este artículo
2 preguntas restantes · Respuestas basadas en el contenido del artículo
Recibí las noticias en WhatsApp
Seguí nuestro canal para recibir lo más importante del día, directo a tu celular.
Noticias Relacionadas

El Gobierno de la Ciudad lanzó "IA para todos", un curso gratuito para iniciarse en inteligencia artificial
El Gobierno porteño presentó una capacitación online y gratuita para aprender a usar inteligencia artificial sin conocimientos previos.

La mora se dispara y este error con tu tarjeta puede arruinar tu score
Mientras crecen los incumplimientos, el perfil crediticio depende cada vez más de cómo usás el crédito y de evitar prácticas de alto riesgo

El híbrido con etiqueta 0 que debes comprar en 2026: más barato que sus rivales, derrocha lujo, tecnología y se llama Omoda 9 SHS
Vivimos un gran momento en cuanto a marcas de motor se refiere. La llegada de nuevas compañías ha dinamizado muchísimo el mercado, dando a los usuarios la opción de poder elegir entre más modelos de vehículos con nuevas mecánicas más eficientes, más sostenibles y sin renunciar a la potencia. Una de las marcas que más […]

Adiós a los avatares: WhatsApp confirma que eliminará la función y este es el futuro de tus stickers personalizados
WhatsApp confirma la eliminación de la función de avatares a partir de mayo de 2026. Descubre por qué desaparecen y qué pasará con tus stickers...
Comentarios
para dejar un comentario