O negócio secreto da Nvidia que pode eclipsar os chips
À medida que a inteligência artificial entra em tudo o que é produto e serviço, é fácil fixar o olhar nas GPU que alimentam modelos cada vez maiores. Mas há uma peça menos glamorosa, e decisiva, a ganhar protagonismo: a rede que liga milhares de aceleradores como se fossem um único supercomputador.
Neste artigo encontras:
É aqui que a Nvidia está a montar o seu segundo império — um que promete ser tão lucrativo quanto estratégico.
De motores a autoestradas de dados
Treinar e operar modelos de grande escala deixou de ser apenas um desafio de computação. Hoje, o gargalo vive tantas vezes na comunicação entre nós como no poder bruto de cálculo. Se as GPU não trocarem dados com baixa latência e largura de banda garantida, perdem-se ciclos, aumenta-se o custo e esticam-se prazos.

É por isso que tecnologias como NVLink, InfiniBand e Spectrum‑X deixaram de ser “acessórios” e passaram a ser a espinha dorsal dos centros de dados de IA. O objetivo é simples de enunciar e difícil de executar: que milhares de GPU consigam partilhar parâmetros e gradientes como se estivessem na mesma placa. Aqui entram redes com topologias e protocolos pensados para computação distribuída, gestão eficiente de congestionamento e uma orquestração que espreme cada microsegundo.
E, cada vez mais, entram também soluções fotónicas — ligações ópticas e comutação pensadas para o salto seguinte de escala — para manter a energia sob controlo sem sacrificar desempenho.
A aposta silenciosa que dispara receitas
Muito deste avanço tem raízes na aquisição da israelita Mellanox, concluída em 2020. Foi uma jogada que, na altura, passou ao lado de muitos, mas que hoje explica o encaixe perfeito entre aceleradores e interconexão de classe HPC.
Os números recentes mostram a dimensão da aposta: a divisão de redes da Nvidia já gera receitas bilionárias por trimestre, com crescimentos anuais de três dígitos, e somou mais de três dezenas de mil milhões num único ano. É, na prática, o segundo motor do negócio, logo a seguir à computação acelerada.
Mais do que vender peças, a empresa está a empacotar a “fábrica completa de IA”: chips, interligação, comutadores, software, bibliotecas, segurança e, agora, fotónica. Para um cliente, isto traduz‑se numa proposta tentadora: comprar um bloco coeso, testado de ponta a ponta, que escala do rack ao data center inteiro com menos fricção de integração.
Rubin e a viragem óptica
No palco do seu evento anual, a Nvidia voltou a desenhar o futuro de forma agressiva. A plataforma Rubin, sucessora do ecossistema atual de GPU, chega acompanhada por evoluções na pilha de rede: mais capacidades em Spectrum‑X, latências mais baixas, gestão de tráfego mais inteligente e um empurrão firme rumo à conectividade óptica dentro e fora do rack.
A fotónica deixa de ser apenas um “upgrade” de cabos para se aproximar do silício. Quanto mais curta for a distância entre o chip e a luz, menos perdas, menos calor e mais eficiência. Para quem opera clusters gigantes, cada melhoria percentual multiplica‑se por milhares de nós — uma poupança que rapidamente passa dos megawatts aos milhões de euros.
Para lá do centro de dados: órbita e confiança
A ambição não termina nas quatro paredes do data center. A visão de levar computação e redes para a órbita, com satélites de IA e centros de dados espaciais, procura contornar limites terrestres, da energia à proximidade dos dados. É um cenário ainda embrionário, mas revela até onde a Nvidia está disposta a ir para manter a curva de crescimento.
Em paralelo, reforça‑se o software e a segurança. Ferramentas como o recente NemoClaw sinalizam uma preocupação clara: reduzir riscos de fuga de dados, controlar dependências, auditar pipelines e dar às empresas o conforto necessário para escalar a IA sem medo. Em 2026, vender desempenho sem confiança já não chega.
O que isto muda para quem compra
Para equipas de infraestrutura, a mensagem é dupla. Por um lado, a integração vertical simplifica a vida: menos pontos de falha, menos compatibilidades a validar, mais previsibilidade de desempenho. Por outro, cresce o risco de bloqueio tecnológico. Ethernet acelerada com RDMA, InfiniBand, NVLink, fotónica co‑embalada — cada escolha encurta o leque de fornecedores alternativos.
A concorrência continuará a puxar por abordagens baseadas em Ethernet “aberta” e em pilhas desagregadas, tentando casar custo, interoperabilidade e escala. Mas enquanto os modelos mais exigentes exigirem cada gota de largura de banda e latência ultrabaixa, a proposta integrada da Nvidia tem vantagem. É o equivalente a comprar um carro de competição completo, em vez de montar um a partir de peças — sobretudo quando o calendário dita quem chega primeiro ao mercado.
Conclusão: a rede é a nova fronteira
Os chips continuarão a ser o cartaz da Nvidia, mas a rede que os une é a chave que transforma um mar de GPU num único computador gigante. No fim do dia, IA de ponta é coordenação: mover dados no ritmo certo, para o lugar certo, ao custo certo. E é precisamente aí que a Nvidia quer dominar o tabuleiro, vendendo não só os motores, mas também as autoestradas por onde os dados correm.
Fonte: techcrunch




Sem Comentários! Seja o Primeiro.