Connect with us

Google

Google reveló detalles de su última súper computadora de IA, pero Nvidia no se queda atrás.

Published

on

Google reveló detalles sobre una de sus súper computadoras de inteligencia artificial, afirmando que es más rápida y eficiente que los sistemas de Nvidia.

Aunque Nvidia domina el mercado de entrenamiento y despliegue de modelos de IA con más del 90%, Google ha estado diseñando y desplegando chips de IA llamados Unidades de Procesamiento Tensor, o TPU, desde 2016.

Este martes, Google anunció que construyó un sistema con más de 4,000 TPU, junto con componentes personalizados diseñados para ejecutar y entrenar modelos de IA.

Este sistema ha estado en funcionamiento desde 2020 y se utilizó para entrenar en 50 días, el modelo PaLM de Google, que compite con el modelo GPT de OpenAI. Esta súper computadora llamada TPU v4, es “1.2x–1.7x más rápido y utiliza 1.3x–1.9x menos energía que el Nvidia A100”, según los investigadores de Google.

Aún así, los resultados de TPU de Google parecen no compararse con el chip de IA más reciente de Nvidia, el H100.

Los resultados y clasificaciones de una prueba de chips de IA a nivel de industria llamada MLperf se dieron a conocer el miércoles, y el CEO de Nvidia, Jensen Huang, dijo que los resultados del chip H100, eran significativamente más rápidos que la generación anterior.

Aunque en algún momento Google se posicionaba como el líder absoluto en soluciones de inteligencia artificial, le está tocando competir fuertemente contra Microsoft y Open AI en software y contra Nvidia, en hardware.

Comentarios

Comentarios

Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Trending