Elon Musk recentemente revelou um olhar interno sobre o Cortex, o supercomputador de Tesla no complexo Giga Texas. Este vídeo mostra uma seção do Cortex ainda em montagem, destacando a magnitude do projeto com fileiras de GPUs Nvidia H100/H200. Musk mencionou que o Cortex contará com aproximadamente 100.000 dessas GPUs, o que representará um avanço significativo para o treinamento de IA da Tesla.
A Tesla investirá aproximadamente US$ 10 bilhões em treinamento e inferência de IA este ano, com o objetivo de avançar sua tecnologia de condução autônoma. Esse investimento foi mencionado por Musk em postagens no X, onde ele destacou que qualquer empresa que não esteja investindo nesse nível, e de maneira eficiente, não poderá competir no mercado.
O Cortex é essencial para o desenvolvimento de produtos cruciais como o Full Self-Driving (FSD) e o Optimus, um robô humanóide. A rede de Robotaxis planejada por Tesla, delineada no Master Plan, Parte Dois de 2016, depende fortemente do sucesso do FSD. O Optimus tem o potencial de transformar indústrias como a manufatura.
Este supercomputador não é apenas uma demonstração de poder computacional, mas também um desafio logístico, necessitando inicialmente de 130 MW de refrigeração, com planos de expansão para mais de 500 MW nos próximos 18 meses. Além disso, Tesla está investindo $500 milhões em outro supercomputador, o Dojo, em Buffalo, Nova York, até 2034, com $350 milhões a serem investidos até o final do próximo ano.
O treinamento de IA, como explicado por Musk, é comparável ao aprendizado humano: quanto mais treinamento, menos esforço subsequente é necessário para a execução de tarefas. Este investimento massivo em hardware de IA sublinha a importância do treinamento de dados para avanços em tecnologias autônomas e robótica.