tecnología

Un estudio detectó que muchos usuarios no verifican las respuestas de la inteligencia artificial

4 min de lectura1 lecturasComentarios

Escuchá el resumen

Exclusivo para suscriptores Premium

Desbloquear
Un estudio detectó que muchos usuarios no verifican las respuestas de la inteligencia artificial
Lo esencial
  • Así lo advirtió una investigación de la Universidad de Pensilvania, que identificó un fenómeno al que llamó “rendición cognitiva” para describir la tendencia de algunos usuarios a aceptar respuestas de IA sin verificar...
  • En contraste, solo corrigieron esas respuestas en el 19,7% de las veces
  • La investigación se apoyó en más de 9500 pruebas individuales realizadas con 1372 participantes y buscó observar hasta qué punto la presencia de un chatbot modifica la manera en que las personas resuelven problemas...
  • Cuando la inteligencia artificial acertaba, los usuarios tomaban su respuesta como válida el 93% de las veces

La confianza en la inteligencia artificial (IA) puede tener un costo poco visible: dejar de pensar por cuenta propia. Así lo advirtió una investigación de la Universidad de Pensilvania, que identificó un fenómeno al que llamó “rendición cognitiva” para describir la tendencia de algunos usuarios a aceptar respuestas de IA sin verificar si son correctas. El trabajo demostró que el problema no aparece solo cuando un chatbot se equivoca, sino en la forma en que muchas personas se relacionan con esa herramienta. Frente a respuestas redactadas con seguridad, fluidez y tono convincente, una parte importante de los participantes optó por confiar en el sistema en lugar de revisar el razonamiento detrás de la respuesta. De acuerdo a los resultados del estudio, los usuarios aceptaron razonamientos erróneos generados por IA en el 73,2% de los casos analizados. En contraste, solo corrigieron esas respuestas en el 19,7% de las veces. La investigación se apoyó en más de 9500 pruebas individuales realizadas con 1372 participantes y buscó observar hasta qué punto la presencia de un chatbot modifica la manera en que las personas resuelven problemas simples de razonamiento. Qué es la “rendición cognitiva” y por qué preocupa Los investigadores diferencian este fenómeno de otras formas conocidas de apoyo tecnológico. Usar una calculadora o seguir un GPS implica delegar una tarea específica, pero con cierta supervisión humana. En cambio, en la “rendición cognitiva” el usuario no solo externaliza una parte del trabajo, sino que también reduce su intervención crítica y da por válida la respuesta sin someterla a revisión. Para estudiar ese comportamiento, el equipo utilizó pruebas de reflexión cognitiva y ofreció a los participantes acceso opcional a un chatbot modificado. Ese sistema respondía de forma correcta en algunos casos y de manera incorrecta en otros. Aun así, la aceptación fue alta en ambos escenarios. Cuando la inteligencia artificial acertaba, los usuarios tomaban su respuesta como válida el 93% de las veces. Pero cuando el sistema fallaba, también la seguían en cerca del 80% de los casos. El dato refuerza una idea central del estudio: la autoridad percibida de la herramienta puede pesar más que el análisis propio. Además, quienes usaron IA se mostraron más seguros de sus respuestas que el grupo que resolvió los ejercicios sin asistencia, incluso cuando el chatbot había entregado respuestas equivocadas en la mitad de los casos. El tiempo y la confianza previa influyen en la relación con la IA La investigación también analizó qué factores aumentan o reducen la capacidad de cuestionar a la inteligencia artificial. Uno de los más claros fue el tiempo disponible para decidir. Cuando los participantes tuvieron que responder bajo presión, con un límite de 30 segundos, disminuyó la probabilidad de que detectaran errores del sistema. En cambio, cuando había incentivos económicos y devolución inmediata sobre si la respuesta era correcta, mejoraba la disposición a frenar, revisar y corregir lo que proponía el chatbot. Otro punto relevante fue la predisposición previa frente a la tecnología. Las personas que ya tendían a ver a la IA como una fuente confiable o autoritativa fueron más propensas a aceptar respuestas defectuosas. Por el contrario, quienes mostraban mayores capacidades de razonamiento abstracto y analítico confiaron menos y corrigieron más. Una advertencia para el uso cotidiano de chatbots El estudio no plantea que apoyarse en inteligencia artificial sea siempre una mala decisión. De hecho, sus autores señalan que delegar parte del razonamiento puede resultar útil cuando el sistema ofrece respuestas de alta calidad o trabaja sobre grandes volúmenes de datos. El punto crítico aparece cuando la confianza se convierte en sustituto del pensamiento crítico. En ese escenario, la calidad de la decisión deja de depender del usuario y pasa a estar atada a la precisión del sistema. Si la IA acierta, el resultado mejora. Si falla, el error también se arrastra. La expansión de estas herramientas en ámbitos como el estudio, el trabajo y la búsqueda cotidiana de información hace que esa advertencia cobre más peso. El desafío, además de desarrollar modelos más capaces, también pasa por evitar que su aparente seguridad termine desplazando una práctica básica: dudar, revisar y pensar antes de aceptar una respuesta como verdadera.

Fuente: TN. Para leer la nota completa:

Leer artículo completo

Resumen rápido

Lo que necesitás saber en segundos. Para la nota completa, visitá la fuente original.

Fuente: TN|Fuente primaria|Editado por Tempranísimo IA

Preguntale a la nota

Hacé preguntas y la IA responde usando solo este artículo

2 preguntas restantes · Respuestas basadas en el contenido del artículo

Compartir

Recibí las noticias en WhatsApp

Seguí nuestro canal para recibir lo más importante del día, directo a tu celular.

Seguir canal

Comentarios

para dejar un comentario

Cargando comentarios...

Noticias Relacionadas

El juego de mesa que fue retirado por poner a los niños a robar raciones de comida a los supervivientes del Titanic
Tecnología

El juego de mesa que fue retirado por poner a los niños a robar raciones de comida a los supervivientes del Titanic

Juegos de temática morbosa siempre ha habido, pero desde luego no son cosa de hoy. Ya en 1975, los creadores de juegos de mesa se devanaban los sesos para dar con la idea más negra e impactante para toda la familia. Y qué mejor para pasar una tarde de inofensiva diversión en compañía de los seres queridos que una de las mayores tragedias de la historia de la locomoción moderna. Se hunde. Cuando en 1975 Ideal Toy Corporation puso en las estanterías 'The Sinking of the Titanic' , el slogan impreso

El primer coche "autónomo" de la historia data de 1958 y tenía un peculiar problema: olía a pescado
Tecnología

El primer coche "autónomo" de la historia data de 1958 y tenía un peculiar problema: olía a pescado

Hoy en día y salvo excepciones contadas como el Cybertruck , el diseño de los automóviles se mueven por tendencias muy claras. Sin embargo, en la década de los 50 y en plena era espacial, el límite era el cielo. Algunos ejemplos son el alucinante General Motors Firebird I , el Zündapp Janus que no sabes si viene o va o la nevera con ruedas llamada BMW Isetta . En esa época nació el Golden Sahara II , un auto verdaderamente adelantado a su tiempo. Se adelantó tanto que trajo la asistencia en la c