sociedad

Estudio: el peligro de la inteligencia artificial como asistente emocional del usuario

Los asistentes virtuales con inteligencia artificial pueden agravar la ansiedad del usuario, según un estudio publicado en una universidad de Finlandia.

Actualizado hace alrededor de 2 horas2 min de lectura2 lecturasComentarios

Escuchá el resumen

Exclusivo para suscriptores Premium

Desbloquear
Estudio: el peligro de la inteligencia artificial como asistente emocional del usuario
Lo esencial

Los asistentes virtuales con inteligencia artificial pueden agravar la ansiedad del usuario, según un estudio publicado en una universidad de Finlandia.

  • Los asistentes virtuales basados en la inteligencia artificial (IA) tienen la capacidad de ofrecer consuelo a corto plazo, pero su uso prolongado puede agravar la ansiedad del usuario...
  • El estudio se centró en el uso de Replika, un chatbot con inteligencia artificial diseñado como amigo, mentor o pareja sentimental virtuales...
  • Los investigadores recopilaron la actividad en la red social Reddit de casi 2.000 usuarios activos de Replika durante dos años...
  • Con la IA, tenemos que ser más inteligentes y cautelosos, porque la verdad es que aún no sabemos qué efectos tienen estos sistemas sobre nosotros", afirmó Talayeh Aledavood, profesora de la Universidad Aalto

Los asistentes virtuales con inteligencia artificial pueden agravar la ansiedad del usuario, según un estudio publicado en una universidad de Finlandia.

Fuente: MDZ Online. Para leer la nota completa:

Leer artículo completo

Resumen rápido

Lo que necesitás saber en segundos. Para la nota completa, visitá la fuente original.

Fuente: MDZ Online|Fuente primaria|Editado por Tempranísimo IA

Preguntale a la nota

Hacé preguntas y la IA responde usando solo este artículo

2 preguntas restantes · Respuestas basadas en el contenido del artículo

Compartir
WhatsAppXFacebookTelegram

Recibí las noticias en WhatsApp

Seguí nuestro canal para recibir lo más importante del día, directo a tu celular.

Seguir canal

Comentarios

para dejar un comentario

Cargando comentarios...