Novo sistema foca em computação de inferência e integra tecnologias da startup Groq para aumentar a velocidade e a eficiência de agentes de IA
Compartilhe esta matéria
Siga o Olhar Digital no Google Discover
A Nvidia planeja revelar um novo processador projetado especificamente para ajudar a OpenAI e outros clientes a construir ferramentas mais rápidas e eficientes. O movimento, reportado pelo The Wall Street Journal, promete redefinir a corrida pela inteligência artificial.
A empresa está desenvolvendo um sistema voltado para a “inferência”. A nova plataforma será apresentada na conferência de desenvolvedores GTC, em San Jose, no próximo mês, e deve incorporar tecnologias de chips da startup Groq.
O mercado de inferência tornou-se um campo de batalha intenso. Rivais como Google e Amazon já desenvolveram chips próprios para competir com os sistemas da Nvidia. Além disso, a explosão do uso de automação de código no setor de tecnologia gerou uma demanda por chips que lidem de forma mais eficaz com tarefas complexas

Do treinamento para a execução
A Nvidia dominou a era inicial da IA com suas GPUs (Unidades de Processamento Gráfico), fundamentais para o treinamento de modelos gigantescos. No entanto, o mercado está mudando. Com o surgimento de sistemas de agentes de IA, ferramentas que agem de forma autônoma para realizar tarefas pelos usuários, o foco saiu do treinamento e passou para a execução (inferência).
As GPUs tradicionais são caras e consomem muita energia para rodar esses modelos no dia a dia. Para enfrentar esse desafio, a Nvidia licenciou tecnologias da Groq por 20 bilhões de dólares e contratou sua liderança. Os chips da Groq utilizam uma arquitetura chamada “Unidades de Processamento de Linguagem” (LPUs), conhecidas pelo alto desempenho em funções de inferência.
A OpenAI já concordou em ser uma das maiores clientes desse novo processador. A criadora do ChatGPT, que vinha buscando alternativas mais baratas aos chips da Nvidia, pretende usar o novo sistema para aprimorar o Codex, sua ferramenta de automação de código. O anúncio ocorre em conjunto com um investimento de 30 bilhões de dólares da Nvidia na OpenAI, embora a startup de Sam Altman também tenha fechado acordos para utilizar chips da Amazon e da Cerebras.
Até mesmo a Meta entrou na nova estratégia da Nvidia. Recentemente, as empresas expandiram uma parceria para o uso de servidores baseados apenas em CPUs (Unidades de Processamento Central) para suportar os agentes de IA de segmentação de anúncios da Meta, sinalizando que a Nvidia está disposta a olhar além da GPU para manter o controle sobre os diversos nichos do mercado de tecnologia.
Beatriz Campos é redator(a) no Olhar Digital











