A xAI, start-up de inteligência artificial (IA) liderada por Elon Musk, anunciou a ativação do Colossus, o supercomputador de treinamento de IA mais poderoso do mundo. Localizado em Memphis, Tennessee, o sistema foi construído em apenas 122 dias, utilizando 100.000 GPUs Hopper H100 da NVIDIA, componentes essenciais para treinar modelos de IA de próxima geração.
O objetivo do Colossus é avançar no desenvolvimento de Grok, o modelo de linguagem de grande escala (LLM) da xAI. Além disso, a empresa já planeja expandir a capacidade do sistema para 200.000 GPUs em poucos meses, com a adição de 50.000 unidades do modelo H200 da NVIDIA, que possui memória HBM3E de 141GB, mais avançada que os 80GB da H100.
O próprio Elon Musk comemorou o feito no X (antigo Twitter), destacando a rápida construção do supercomputador e sua relevância global:
“O Colossus é o sistema de treinamento de IA mais poderoso do mundo e dobrará de tamanho em alguns meses”.
Elon Musk
A NVIDIA também celebrou o lançamento, ressaltando o desempenho e eficiência energética do sistema, que foi construído em tempo recorde.
A NVIDIA Hopper H100, que custa cerca de US$ 30.000 (cerca de R$ 165 mil em conversão direta) por unidade, faz com que o investimento no supercomputador tenha ultrapassado US$ 3 bilhões (R$ 16,5 bilhões), considerando as 100.000 GPUs utilizadas até agora. Além do alto custo de construção, o Colossus também exigirá grandes quantidades de energia e sistemas de refrigeração para operar.
Atualmente, a xAI já oferece o Grok 2, treinado com 15.000 GPUs H100, para os assinantes premium do X, com capacidades de geração de imagens e textos. A previsão é que o Grok 3, terceira geração do modelo de IA da xAI, seja lançado até dezembro.
Para ficar por dentro das principais notícias de tecnologia e celulares, siga e acompanhe o TechShake no Bluesky, Threads, Instagram e Facebook.
VEJA TAMBÉM!