Saltar al contenido principal

Tempranísimo

sábado, 25 de abril de 2026

Buenos DíasRápidasPolíticaEconomíaDeportesTecnologíaSociedadInternacionalEntretenimientoCulturaPremium
Oficial
Blue
MEP

Tempranísimo

La primera plataforma de noticias impulsada 100% por inteligencia artificial.

Seguinos en WhatsApp

Secciones

  • Política
  • Economía
  • Deportes
  • Tecnología
 
  • Sociedad
  • Entretenimiento
  • Internacionales
  • Cultura

Información

  • Buenos Días
  • Noticias Rápidas
  • Economía en Vivo
  • Cómo Funciona
  • Fuentes
  • Premium
  • Newsletter
  • Resumen Semanal
  • Términos y Condiciones
  • Privacidad
  • Acerca de
  • Por qué Tempranísimo
  • Estándares Editoriales
  • Correcciones
  • Contacto
  • Changelog
  • Estado del Sistema
  • Ideas

© 2026 Tempranísimo. Todos los derechos reservados.

Hecho con AI en Argentina

InicioBuscarSeccionesGuardadosPerfil
  1. Inicio
  2. sociedad
  3. Según un estudio, ChatGPT, Gemini y otros bots de IA dan consejos médicos erróneos la mitad de las veces
sociedad

Según un estudio, ChatGPT, Gemini y otros bots de IA dan consejos médicos erróneos la mitad de las veces

25 de abril de 20263 min de lectura1 lecturasComentarios

Escuchá el resumen

Exclusivo para suscriptores Premium

Desbloquear
Según un estudio, ChatGPT, Gemini y otros bots de IA dan consejos médicos erróneos la mitad de las veces
#ia#salud
Lo esencial
  • Desde su aparición, los chatbots de inteligencia artificial son usados por millones de personas para hacer consultas de salud
  • Sin embargo, un estudio confirmó lo peligroso de esta tendencia
  • Según una investigación de la revista especializada BJM Open, las herramientas como ChatGPT, Gemini, Grok, Meta AI y DeepSeek ofrecen respuestas erróneas...
  • El trabajo evaluó 250 consultas sobre cáncer, vacunas, células madre, nutrición y rendimiento deportivo

Desde su aparición, los chatbots de inteligencia artificial son usados por millones de personas para hacer consultas de salud. Sin embargo, un estudio confirmó lo peligroso de esta tendencia. Según una investigación de la revista especializada BJM Open, las herramientas como ChatGPT, Gemini, Grok, Meta AI y DeepSeek ofrecen respuestas erróneas, incompletas o potencialmente engañosas en cerca de la mitad de los casos analizados, incluso cuando sus devoluciones parecían seguras y bien fundamentadas. El trabajo evaluó 250 consultas sobre cáncer, vacunas, células madre, nutrición y rendimiento deportivo. El objetivo fue medir si estos sistemas se mantenían alineados con la evidencia científica o si se desviaban hacia afirmaciones problemáticas. El resultado ratificó las advertencias sobre el uso de estos bots como reemplazo de profesionales o de buscadores tradicionales para resolver dudas médicas cotidianas. Una de las conclusiones más delicadas del trabajo reveló que los errores aparecían con más frecuencia en preguntas abiertas, es decir, en el tipo de consultas que una persona suele hacer en una conversación real. En esos casos, los modelos tendieron a mezclar información correcta con datos débiles, incompletos o directamente incorrectos. Las preguntas abiertas fueron las que más expusieron los errores Según el estudio, los peores resultados surgieron cuando los chatbots respondieron consultas amplias y abiertas. Ese tipo de planteos generó una proporción más alta de respuestas altamente problemáticas que las preguntas cerradas o más acotadas. El dato es relevante porque, en la práctica, los usuarios no suelen formular dudas médicas con precisión técnica ni dentro de opciones limitadas. Preguntan si una vacuna es segura, si un tratamiento sirve o qué puede ayudar a mejorar el rendimiento físico. En ese terreno más ambiguo y cotidiano, los bots mostraron más fallas. Los investigadores observaron que allí aparecía uno de los principales riesgos: respuestas convincentes en la forma, pero poco confiables en el contenido. Esa combinación puede hacer que la información errónea pase inadvertida para quien consulta. Citas incompletas y referencias inventadas El trabajo también analizó la calidad de las fuentes citadas por los sistemas. En promedio, las referencias obtuvieron un nivel de completitud de apenas 40%, y ninguno de los chatbots logró presentar una lista de citas completamente precisa. Además, los autores señalaron la presencia de referencias y citas inventadas. Es decir, respuestas que aparentaban estar respaldadas por bibliografía o estudios, pero que no resistían una verificación posterior. A eso se sumó otro problema: los modelos respondieron con seguridad y casi sin advertencias sobre los límites de la información que estaban entregando. Ese punto ayuda a explicar por qué estos chatbots pueden generar confianza y credibilidad en las personas. Una respuesta redactada con tono firme, lenguaje claro y apariencia académica puede parecer confiable, aunque contenga errores o información insuficiente. Con esto en cuenta, los investigadores concluyeron que, incluso en asuntos médicos basados en evidencia, las herramientas conversacionales basadas en inteligencia artificial todavía no ofrecen garantías suficientes para orientar decisiones importantes de salud. Por ahora, su utilidad parece más acotada. Pueden servir para resumir información, ordenar dudas o ayudar a preparar preguntas para una consulta profesional. Sin embargo, los resultados del trabajo muestran que todavía no son una fuente confiable para tomar decisiones médicas por cuenta propia.

Fuente: TN. Para leer la nota completa:

Leer artículo completo

Resumen rápido

Lo que necesitás saber en segundos. Para la nota completa, visitá la fuente original.

Fuente: TN|Fuente primaria|Editado por Tempranísimo IA

Preguntale a la nota

Hacé preguntas y la IA responde usando solo este artículo

2 preguntas restantes · Respuestas basadas en el contenido del artículo

Compartir
WhatsAppXFacebookTelegram

Recibí las noticias en WhatsApp

Seguí nuestro canal para recibir lo más importante del día, directo a tu celular.

Seguir canal

Comentarios

para dejar un comentario

Cargando comentarios...

Noticias Relacionadas

El dramático rescate a una jubilada de 86 años que cayó en un pozo de 4 metros
Sociedad

El dramático rescate a una jubilada de 86 años que cayó en un pozo de 4 metros

Vecinos dieron aviso al notar que la jubilada tenía la puerta abierta de su casa. Bomberos de Rosario realizaron un rescate con cuerdas para extraerla.

MDZ Onlinehace alrededor de 2 horas1 min
Crece la fractura entre el Verde y Morena, Luis Armando Melgar no garantiza que vayan juntos en 2027
Sociedad

Crece la fractura entre el Verde y Morena, Luis Armando Melgar no garantiza que vayan juntos en 2027

El diputado de PVEM advirtió que su partido tiene la capacidad de ir solo y de paso cuestionó a María Luisa Alcalde

Infobaehace alrededor de 2 horas3 min
Con esta nueva actualización de Windows, ya no te verás obligado a actualizar tu PC cuando la apagues
Sociedad

Con esta nueva actualización de Windows, ya no te verás obligado a actualizar tu PC cuando la apagues

Las opciones de apagar y reiniciar permanecerán disponibles, incluso con actualizaciones pendientes

Infobaehace alrededor de 2 horas3 min2
Un estudio descubrió que los chicos que dibujan todo el tiempo fortalecen sus capacidades cognitivas
Sociedad

Un estudio descubrió que los chicos que dibujan todo el tiempo fortalecen sus capacidades cognitivas

Esta actividad artística fortalece las funciones ejecutivas y mejora la retención de datos gracias al “efecto de codificación”, una ventaja cognitiva para toda la vida

La Naciónhace alrededor de 2 horas3 min1
Más de SociedadVer todas las noticias