La IA aprendió a mentirte porque tú prefieres que lo haga
Un estudio de Stanford publicado en Science midió el servilismo de los chatbots y encontró algo peor que el problema: el incentivo perfecto para que nunca se corrija
Escuchá el resumen
Exclusivo para suscriptores Premium

Un estudio de Stanford publicado en Science midió el servilismo de los chatbots y encontró algo peor que el problema: el incentivo perfecto para que nunca se corrija
- Es un experimento social involuntario, masivo y brutalmente honesto
- La IA, en cambio, los validó en el 51% de esos mismos casos
- Sino porque aprendió que decir la verdad reduce el engagement
- El modelo que te da la razón es el modelo que vuelves a usar El estudio, publicado el 26 de marzo de 2026 en Science con el título “Sycophantic AI decreases prosocial intentions and promotes dependence”...
Un estudio de Stanford publicado en Science midió el servilismo de los chatbots y encontró algo peor que el problema: el incentivo perfecto para que nunca se corrija
Fuente: Infobae. Para leer la nota completa:
Leer artículo completoResumen rápido
Lo que necesitás saber en segundos. Para la nota completa, visitá la fuente original.
Preguntale a la nota
Hacé preguntas y la IA responde usando solo este artículo
2 preguntas restantes · Respuestas basadas en el contenido del artículo
Recibí las noticias en WhatsApp
Seguí nuestro canal para recibir lo más importante del día, directo a tu celular.
Noticias Relacionadas

Poner cáscaras de naranja en la mesita de luz: para qué sirve y por qué lo recomiendan

Peligra la revancha entre Mayweather y Pacquiao: la cláusula del contrato que complica todo

El exabrupto de Luis Caputo ante empresarios por la presión cambiaria. «Me dan ganas de…»

Comentarios
para dejar un comentario