Mythos: la IA de Anthropic que corrige errores… y también los crea
Un modelo de inteligencia artificial liberado únicamente para una docena de compañías y actores estatales debido a sus “capacidades sin precedentes”. Mythos Claude, el nuevo sistema de Anthropic, no solo puede detectar vulnerabilidades en programas y sistemas informáticos, sino también explotar esas brechas para hackearlos. Expertos en ciberseguridad advierten sobre las consecuencias que podría tener esta tecnología de IA avanzada si cae en manos equivocadas.
Escuchá el resumen
Exclusivo para suscriptores Premium

Un modelo de inteligencia artificial liberado únicamente para una docena de compañías y actores estatales debido a sus “capacidades sin precedentes”. Mythos Claude, el nuevo sistema de Anthropic, no solo puede detectar vulnerabilidades en programas y sistemas informáticos, sino también explotar esas brechas para hackearlos. Expertos en ciberseguridad advierten sobre las consecuencias que podría tener esta tecnología de IA avanzada si cae en manos equivocadas.
- Mythos: la IA de Anthropic que corrige errores… y también los crea Para mostrar este contenido de YouTube, debe autorizar las cookies de medición de audiencia y publicidad
- Primera modificación: Un modelo de inteligencia artificial liberado únicamente para una docena de compañías y actores estatales debido a sus “capacidades sin precedentes”
- Mythos Claude, el nuevo sistema de Anthropic, no solo puede detectar vulnerabilidades en programas y sistemas informáticos, sino también explotar esas brechas para hackearlos
- Expertos en ciberseguridad advierten sobre las consecuencias que podría tener esta tecnología de IA avanzada si cae en manos equivocadas
Mythos: la IA de Anthropic que corrige errores… y también los crea Para mostrar este contenido de YouTube, debe autorizar las cookies de medición de audiencia y publicidad. Primera modificación: Un modelo de inteligencia artificial liberado únicamente para una docena de compañías y actores estatales debido a sus “capacidades sin precedentes”. Mythos Claude, el nuevo sistema de Anthropic, no solo puede detectar vulnerabilidades en programas y sistemas informáticos, sino también explotar esas brechas para hackearlos.
Expertos en ciberseguridad advierten sobre las consecuencias que podría tener esta tecnología de IA avanzada si cae en manos equivocadas.
Preguntale a la nota
Hacé preguntas y la IA responde usando solo este artículo
2 preguntas restantes · Respuestas basadas en el contenido del artículo
Recibí las noticias en WhatsApp
Seguí nuestro canal para recibir lo más importante del día, directo a tu celular.
Noticias Relacionadas

Visa avanza para que que la IA compre y pague por vos: el plan que incluye a los bancos y billeteras top de Argentina

Fusión global de Re/Max: cómo impactará en las oficinas de Córdoba
La operación por US$ 880 millones con The Real Brokerage redefine el modelo de la red de franquicias. Desde la provincia, referentes del sector aseguran que no habrá cambios inmediatos, pero sí una fuerte apuesta a la inteligencia artificial

Anthropic está a un paso de valer tanto como Samsung. Y lo que el mercado está comprando no es Claude
Anthropic, la empresa detrás de Claude , está sondeando una nueva ronda de financiación que la valoraría en más de 900.000 millones de dólares. Si se cierra, superaría a OpenAI como la startup de IA más valiosa del mundo. La empresa de Altman fijó su aguja en 862 millones el mes pasado. La cifra duplica con creces los 350.000 millones que tenía en febrero. En apenas dos meses. Por qué es importante . La valoración ya no responde a las ventas de Anthropic. Responde a una apuesta sobre lo que la e

Videos de IA con estética de LEGO y propaganda iraní son virales en redes sociales
Desde hace unos meses, las redes sociales han sido el escenario de videos virales creados con inteligencia artificial con propaganda pro iraní con estética de LEGO. El creador es Mahdi Hemmat, un iraní-estadounidense que asegura estar cansado de la situación.
Comentarios
para dejar un comentario