Saltar al contenido principal

Tempranísimo

lunes, 4 de mayo de 2026

Buenos DíasRápidasPolíticaEconomíaDeportesTecnologíaSociedadInternacionalEntretenimientoCulturaPremium
Oficial
Blue
MEP

Tempranísimo

La primera plataforma de noticias impulsada 100% por inteligencia artificial.

Seguinos en WhatsApp

Secciones

  • Política
  • Economía
  • Deportes
  • Tecnología
 
  • Sociedad
  • Entretenimiento
  • Internacionales
  • Cultura

Información

  • Buenos Días
  • Noticias Rápidas
  • Economía en Vivo
  • Cómo Funciona
  • Fuentes
  • Premium
  • Newsletter
  • Resumen Semanal
  • Términos y Condiciones
  • Privacidad
  • Acerca de
  • Por qué Tempranísimo
  • Estándares Editoriales
  • Correcciones
  • Contacto
  • Changelog
  • Estado del Sistema
  • Ideas

© 2026 Tempranísimo. Todos los derechos reservados.

Hecho con AI en Argentina

InicioBuscarSeccionesGuardadosPerfil
  1. Inicio
  2. tecnología
  3. Google Cloud Next 2026: el 75 % del código de Google ya lo escribe una máquina, y la fábrica que lo entrena se vende al resto del mundo
tecnología

Google Cloud Next 2026: el 75 % del código de Google ya lo escribe una máquina, y la fábrica que lo entrena se vende al resto del mundo

Sundar Pichai y Thomas Kurian abrieron en Las Vegas la plataforma que gobierna miles de agentes autónomos dentro de una empresa: la fase de pilotos de inteligencia artificial quedó oficialmente cerrada

4 de mayo de 2026Actualizado hace menos de un minuto6 min de lectura2 lecturasComentarios

Escuchá el resumen

Exclusivo para suscriptores Premium

Desbloquear
Google Cloud Next 2026: el 75 % del código de Google ya lo escribe una máquina, y la fábrica que lo entrena se vende al resto del mundo
#ia#apps#transporte
Lo esencial

Sundar Pichai y Thomas Kurian abrieron en Las Vegas la plataforma que gobierna miles de agentes autónomos dentro de una empresa: la fase de pilotos de inteligencia artificial quedó oficialmente cerrada

  • Acabo de salir del keynote de apertura de Google Cloud Next 2026
  • El 75 % del código nuevo que se escribe dentro de Google ya lo genera una inteligencia artificial, revisado y aprobado por ingenieros
  • Amin Vahdat presentó el TPU 8t con casi tres veces más rendimiento por pod que la generación anterior, y el TPU 8i con un salto de 9,8 veces sobre Ironwood, el chip previo
  • El Siri que viene corre sobre Gemini. 5— Workspace Intelligence y la nueva migración rápida desde Microsoft 365, ahora hasta cinco veces más veloz

Estoy en el Mandalay Bay de Las Vegas. Acabo de salir del keynote de apertura de Google Cloud Next 2026. Thomas Kurian en el escenario, Sundar Pichai por video desde Mountain View.

Lo que anunciaron no fue una nube más rápida. Fue el final de una era y el inicio de otra. “Han superado el piloto. La fase experimental quedó atrás”, abrió Kurian.

Durante tres años, el discurso corporativo sobre inteligencia artificial fue el mismo en todas partes: probamos, medimos, aprendemos. Google acaba de declarar ese discurso obsoleto. La pregunta ya no es si tu empresa va a usar IA.

Es cuántos agentes autónomos va a tener corriendo adentro, y quién los va a gobernar. PUBLICIDAD El dato que soltó Pichai explica el tamaño del salto. El 75 % del código nuevo que se escribe dentro de Google ya lo genera una inteligencia artificial, revisado y aprobado por ingenieros.

Hace un año era el 50 %. La curva no es lineal, es exponencial. Pichai lo ilustró con un caso operativo.

Una migración compleja de código, que hace un año requería equipos de ingenieros trabajando semanas, ahora se completó seis veces más rápido usando una red de agentes con tres roles: planificadores, orquestadores y programadores. No es un copiloto. Es una fuerza de trabajo digital operando junto a los humanos dentro de la empresa que está marcando el paso del sector.

PUBLICIDAD Si Google escribe así su propio código, la pregunta es obvia. ¿Cómo escribe el tuyo tu empresa? La plataforma con la que Google escribe su propio código ahora se la venden al resto del mundo Kurian la llamó “tejido conectivo”.

Se llama Gemini Enterprise Agent Platform y es el corazón del anuncio. No compite con una herramienta. Compite con la idea de que tu empresa pueda armar su IA comprando piezas sueltas.

PUBLICIDAD El mensaje al rival fue directo: les están entregando las piezas, no la plataforma. Traducción para el ejecutivo que evalúa presupuesto del próximo año: si estás integrando OpenAI por un lado, Claude por otro y agentes de tu consultora favorita, ese matrimonio mixto se rompe cuando necesites escalar. Google ofrece lo contrario, un stack único que va del chip al agente final.

Pero hicieron una concesión inteligente. El mismo día, Kurian anunció que la plataforma soporta Claude Opus 4.7 de Anthropic y abrió su infraestructura al Model Context Protocol. Abierto, pero curado.

Es una postura más sofisticada que la de Microsoft con OpenAI. PUBLICIDAD Los números de adopción que mostraron en pantalla respaldan la tesis. KPMG alcanzó el 90% de uso de Gemini Enterprise entre sus empleados, con más de cien agentes construidos en el primer mes.

La aseguradora alemana Signal Iduna entrega respuestas a sus clientes 37 % más rápido. Walmart entregó teléfonos con Gemini a sus líderes de tienda para que dejen la pantalla y vuelvan al piso de venta. PUBLICIDAD Google acaba de convertir a su investigador autónomo en un servicio que cualquiera puede llamar Más tarde entré a una sesión de Philipp Schmid, responsable de experiencia de desarrolladores en Google DeepMind.

Mostró algo que no salió en los titulares, pero que va a mover el mercado regional. Presentó la Interactions API, una forma nueva y unificada de llamar a modelos y a agentes completos con la misma simplicidad con la que hoy se consulta a un chatbot. El servidor guarda el estado de la conversación, las tareas pueden durar horas sin perderse y los procesos se reconectan solos si se cortan.

Es un cambio técnico fino con consecuencia práctica: hace viables los agentes que trabajan durante horas sin supervisión humana. PUBLICIDAD El ejemplo que mostró fue contundente. Antes, construir un investigador autónomo capaz de leer internet, razonar, detectar huecos de información, buscar más y redactar un informe con citas inline requería meses de ingeniería.

Ahora Google expuso su propio Deep Research como una llamada de API con una sola línea de código. Lo que era un producto dentro de la app de Gemini, ahora cualquier empresa puede meterlo dentro de su propio software. PUBLICIDAD Para una empresa en Buenos Aires, Bogotá o Madrid, eso se traduce en algo concreto.

El costo de sumar un investigador digital capaz de producir informes con fuentes dejó de medirse en meses de desarrollo y pasó a medirse en minutos de integración. Mi top 5 de lo que importa 1— Los TPU de octava generación, separados por primera vez entre entrenamiento (TPU 8t) e inferencia (TPU 8i). Amin Vahdat presentó el TPU 8t con casi tres veces más rendimiento por pod que la generación anterior, y el TPU 8i con un salto de 9,8 veces sobre Ironwood, el chip previo.

Traducción práctica: Cada consulta a un modelo de Google tiene desde hoy un costo unitario más bajo. PUBLICIDAD 2— El Cross-Cloud Lakehouse. Karthik Narain lo presentó así: los datos de las empresas viven en AWS, en Azure y en SaaS de terceros, y ahora el motor analítico de Google puede razonar sobre ellos sin moverlos, usando el estándar abierto Apache Iceberg.

Narain lo dijo sin eufemismos: el lakehouse tradicional, que exigía que el motor analítico y el almacenamiento vivan en la misma nube, está roto. 3— La llegada de Wiz al stack de seguridad. Francis D’Souza presentó la nueva AI Application Protection Platform (AI App), que automatiza descubrimiento, validación y remediación de riesgos en aplicaciones con IA. En el mismo bloque, D’Souza mostró un dato que retrata por qué la defensa manual quedó obsoleta: el tiempo de traspaso entre el acceso inicial de un atacante y un grupo secundario de amenaza cayó de ocho horas a 22 segundos.

No existe un equipo humano que opere en esa ventana. 4— Apple eligió a Google Cloud como proveedor preferencial para desarrollar la próxima generación de sus modelos base. El Siri que viene corre sobre Gemini. 5— Workspace Intelligence y la nueva migración rápida desde Microsoft 365, ahora hasta cinco veces más veloz. Yulie Kwon Kim lo presentó así: “La inteligencia en el espacio de trabajo supone el fin del impuesto contextual”.

Traducido: el fin de la carga de tiempo que pierde un empleado saltando entre pestañas y aplicaciones para armar un documento. La foto que queda El 75 % del código de Google lo escriben máquinas. La infraestructura que entrenó eso ahora está disponible como producto comercial.

Y la tesis que Kurian repitió cuatro veces en el escenario es clara: la fase experimental terminó. Lo que venga después ya no se va a medir en pilotos. Se va a medir en flotas de agentes autónomos, en identidad criptográfica por agente, en orquestación, en observabilidad.

Todas cosas que hasta ayer sonaban a paper académico y hoy son productos con precio de lista. Esto no es una actualización de producto. Es un cambio de régimen.

Y Google acaba de ponerle precio de lista. PUBLICIDAD PUBLICIDAD

Fuente: Infobae|Fuente primaria|Editado por Tempranísimo IA

Preguntale a la nota

Hacé preguntas y la IA responde usando solo este artículo

2 preguntas restantes · Respuestas basadas en el contenido del artículo

Compartir
WhatsAppXFacebookTelegram

Recibí las noticias en WhatsApp

Seguí nuestro canal para recibir lo más importante del día, directo a tu celular.

Seguir canal

Comentarios

para dejar un comentario

Cargando comentarios...

Noticias Relacionadas

La UE se reúne en Chipre con Zelenski para sellar el mayor préstamo a Ucrania en medio de crisis energética
Tecnología

La UE se reúne en Chipre con Zelenski para sellar el mayor préstamo a Ucrania en medio de crisis energética

El presidente Volodímir Zelenski tiene previsto reunirse este jueves con los líderes de la UE en Chipre, mientras el bloque se prepara para aprobar un préstamo de 90.000 millones de euros para Ucrania, poniendo fin a un prolongado estancamiento. El primer ministro de Hungría, Viktor Orbán, había vetado los fondos hasta que Kiev reparara un oleoducto afectado por un ataque ruso, trabajos ya finalizados, lo que permite reanudar los flujos de petróleo, poco después de su derrota electoral ante su r

France24 EShace 13 minutos4 min1
Youtuber paranormal muere en extrañas circunstancias; su último mensaje desata inquietud
Tecnología

Youtuber paranormal muere en extrañas circunstancias; su último mensaje desata inquietud

David Wilcock murió a los 53 años en un caso que ha generado controversia. Días antes, compartió un inquietante mensaje en el que hablaba del miedo

FayerWayerhace alrededor de 2 horas3 min1
En Singapur, el lujo no es tener un Ferrari o un Lamborghini. El verdadero lujo es simplemente conducir
Tecnología

En Singapur, el lujo no es tener un Ferrari o un Lamborghini. El verdadero lujo es simplemente conducir

Singapur , esa pequeña ciudad/país-estado entre Malasia e Indonesia donde apenas superan los cinco millones de habitantes, es un lugar de contrastes . Mientras el enclave tiene un alto grado de control gubernamental y ciertas prácticas que pueden calificarse como represivas, por el otro se abraza a las nuevas tecnologías hasta el punto de ser un referente mundial en el ámbito público hacia la IA. Allí, tener un coche no es una necesidad práctica, es una declaración de estatus. Conducir en Singap

Xatakahace alrededor de 3 horas5 min1
Google lanza dos nuevos chips de IA que prometen entrenar modelos tres veces más rápido
Tecnología

Google lanza dos nuevos chips de IA que prometen entrenar modelos tres veces más rápido

Google acaba de anunciar su octava generación de procesadores enfocados al desarrollo de nuevas IA. Aprovechando el inicio de su evento Google Cloud Next, la tecnológica presentó los TPU 8t y TPU 8i, dos chips con perfiles diferentes que se enfocan en una tarea concreta. Los procesadores están pensados para competir directamente con las GPU […]

Hipertextualhace alrededor de 3 horas3 min1
Más de TecnologíaVer todas las noticias