O apetite por nuvens alternativas nunca foi tão grande.
CoreWeave, o provedor de infraestrutura de GPU que começou como uma operação de mineração de criptomoedas, esta semana levantou US $ 1,1 bilhão em novos financiamentos de investidores, incluindo Coatue, Fidelity e Altimeter Capital. Relatórios avaliam a startup em US $ 19 bilhões pós-dinheiro, o novo financiamento eleva o total levantado pela CoreWeave para US $ 5 bilhões em dívida e capital - uma figura notável para uma empresa com menos de uma década de existência.
lambda Labs, que também oferece uma variedade de instâncias de GPU hospedadas na nuvem, em abril conseguiu um 'veículo de financiamento especial' de até US $ 500 milhões meses após fechar uma rodada Série C de US $ 320 milhões. A organização sem fins lucrativos Voltage Park, apoiada pelo bilionário da criptomoeda Jed McCaleb, anunciou em outubro passado que está investindo US $ 500 milhões em data centers com suporte de GPU. E Together AI, um host de GPU na nuvem que também conduz pesquisas em AI generativa, em março arrecadou US $ 106 milhões em uma rodada liderada pela Salesforce.
Então, por que todo o entusiasmo - e dinheiro sendo investido - no espaço de nuvem alternativa? Em três palavras, inteligência artificial generativa.
À medida que os tempos de boom da AI generativa continuam, também cresce a demanda pelo hardware para executar e treinar modelos de AI generativa em escala. As GPUs, arquitetonicamente, são a escolha lógica para treinar, ajustar finamente e executar modelos, porque contêm milhares de núcleos que podem trabalhar em paralelo para realizar as equações de álgebra linear que compõem os modelos generativos.
Mas a instalação de GPUs é cara. Portanto, a nuvem é o que a maioria dos desenvolvedores e organizações opta por adotar.
Os incumbentes no espaço de computação em nuvem - Amazon Web Services (AWS), Google Cloud e Microsoft Azure - oferecem uma variedade de instâncias de GPU e hardware especializado otimizado para cargas de trabalho de AI generativa. Mas, para pelo menos alguns modelos e projetos, as nuvens alternativas podem acabar sendo mais baratas - e oferecendo uma melhor disponibilidade.
No CoreWeave, alugar um Nvidia A100 40GB - uma escolha popular para treinamento e inferência de modelos - custa $ 2,39 por hora, o que equivale a $ 1.200 por mês. Na Azure, a mesma GPU custa $ 3,40 por hora, ou $ 2.482 por mês; no Google Cloud, são $ 3,67 por hora, ou $ 2.682 por mês.
Dado que as cargas de trabalho de AI generativa geralmente são executadas em clusters de GPUs, os diferenciais de custo crescem rapidamente.
"Empresas como CoreWeave participam de um mercado que chamamos de provedores de 'GPU como serviço' especializados", disse Sid Nag, VP de serviços e tecnologias em nuvem da Gartner, ao TechCrunch. "Dada a alta demanda por GPUs, eles oferecem uma alternativa aos hiperscalers, onde pegaram GPUs da Nvidia e forneceram outra rota para o mercado e acesso a essas GPUs."
Nag destaca que até algumas grandes empresas de tecnologia começaram a depender de provedores de nuvem alternativos à medida que enfrentam desafios de capacidade de computação.
Em junho passado, a CNBC noticiou que a Microsoft assinou um acordo de vários bilhões de dólares com a CoreWeave para garantir que a OpenAI, fabricante do ChatGPT e parceira próxima da Microsoft, tivesse poder de computação adequado para treinar seus modelos de AI generativa. A Nvidia, fornecedora da maioria dos chips da CoreWeave, vê isso como uma tendência desejável, talvez por motivos de alavancagem; dizem ter dado a alguns provedores de nuvem alternativos acesso preferencial às suas GPUs.
Lee Sustar, analista principal da Forrester, vê fornecedores de nuvem como CoreWeave tendo sucesso em parte porque não têm o 'fardo' de infraestrutura que os provedores incumbentes precisam lidar.
"Dada a predominância dos hiperscalers no mercado global de nuvem pública, que exige vastos investimentos em infraestrutura e variedade de serviços que geram pouco ou nenhum receita, desafiantes como a CoreWeave têm a oportunidade de ter sucesso com um foco em serviços de AI premium sem o fardo dos investimentos em nível de hiperscaler", disse ele.
Mas será que esse crescimento é sustentável?
Sustar tem suas dúvidas. Ele acredita que a expansão dos provedores de nuvem alternativos será condicionada tanto pela capacidade de continuar trazendo GPUs online em grande volume quanto de oferecê-las a preços competitivamente baixos.
Competir em preço pode se tornar desafiador no futuro, à medida que os hiperscalers como Google, Microsoft e AWS aumentam os investimentos em hardware personalizado para executar e treinar modelos. O Google oferece seus TPUs; a Microsoft recentemente revelou dois chips personalizados, Azure Maia e Azure Cobalt; e a AWS possui Trainium, Inferentia e Graviton.
"Os hiperscalers aproveitarão seu silício customizado para mitigar suas dependências da Nvidia, enquanto a Nvidia olhará para CoreWeave e outras nuvens de AI centradas em GPU", disse Sustar.
Além disso, há o fato de que, embora muitas cargas de trabalho de AI generativa funcionem melhor em GPUs, nem todas as cargas de trabalho precisam delas - especialmente se não forem sensíveis ao tempo. CPUs podem executar os cálculos necessários, mas geralmente mais lentamente que GPUs e hardware personalizado.
No campo das preocupações existenciais para os provedores de nuvem alternativos está a ameaça de que a bolha de AI generativa possa estourar, deixando os provedores com montanhas de GPUs e não clientes suficientes exigindo-as. Mas o futuro parece promissor a curto prazo, dizem Sustar e Nag, ambos esperando um fluxo constante de nuvens emergentes.
"Startups de nuvem orientadas a GPUs oferecerão muita concorrência, especialmente entre clientes que já utilizam várias nuvens e podem lidar com a complexidade de gerenciamento, segurança, risco e conformidade em várias nuvens", disse Sustar. "Esse tipo de clientes de nuvem se sente confortável em experimentar uma nova nuvem de AI se ela tiver liderança credível, sólido respaldo financeiro e GPUs sem tempos de espera."