Silício volta ao Vale do Silício graças às startups de IA

Medicina Notícias

A Nvidia Corp. dominou totalmente o mercado dos chips que alimentam softwares de inteligência artificial, e outras empresas decidiram que estavam dispostas a seguir o exercício, muitas vezes desastroso, de projetar seus próprios semicondutores. A história nos ensina que projetar um chip a partir do zero leva anos, custa centenas de milhões de dólares e, em geral, termina sem vitória. No entanto, a promessa da IA é simplesmente tão grande que as pessoas decidiram que precisam tentar.

Dois desses corajosos são Mike Gunter e Reiner Pope. Eles fundaram uma empresa, a MatX, que tem como objetivo projetar o silício especificamente para processar os dados necessários para alimentar grandes modelos de linguagem (LLMs). Os LLMs servem como base para o ChatGPT da OpenAI Inc. e o Gemini da Google, e exigem uma quantidade absurda de chips caríssimos para serem usados. Se uma empresa pudesse produzir chips mais baratos, mais rápidos e projetados para a IA, ela estaria pronta para se sair muito bem em um mundo de softwares de IA em constante expansão.

Gunter e Pope trabalhavam anteriormente na Alphabet Inc. da Google, onde Gunter projetava hardware, incluindo chips, para rodar softwares de IA, e Pope escrevia os softwares de IA. A Google vem construindo há anos seus próprios chips de IA chamados de unidades de processamento de tensor. Porém, esses chips foram projetados antes dos LLMs de fato começarem a decolar e são muito genéricos para a tarefa atual em questão, de acordo com os diretores da MatX. “Estávamos tentando fazer com que os grandes modelos de linguagem funcionassem mais rápido na Google e tivemos algum progresso, mas foi meio difícil”, disse Pope, falando publicamente sobre sua empresa pela primeira vez. “Na Google, havia muitas pessoas que queriam mudanças nos chips para todos os tipos de coisas, e era difícil concentrar apenas nos LLMs. Optamos por sair por esse motivo”.

A dominância da Nvidia no mercado de silício para IA é meio acidental. A empresa começou a fabricar chips conhecidos como unidades de processamento gráfico (GPUs) para acelerar os videogames e certos trabalhos de design com auxílio computacional. Os chips da Nvidia são excelentes em lidar com muitas tarefas pequenas e, coincidentemente, funcionaram muito melhor com o software de IA que decolou há cerca de uma década do que outros tipos de chips da Intel Corp.

A Nvidia divide o espaço em suas GPUs para lidar com uma ampla variedade de trabalhos de computação, incluindo a movimentação de dados pelo chip. Algumas de suas escolhas de design atendem mais às eras passadas da computação do que ao boom da IA, e vêm com contrapartidas de desempenho. Os fundadores da MatX afirmam que esse espaço extra adiciona custos e complexidade desnecessários à nova era da IA. A empresa está adotando uma abordagem do início, desenvolvendo silício com um único e grande núcleo computacional focado no único propósito de multiplicar números juntos o mais rápido possível — a tarefa central no cerne dos LLMs. A empresa aposta — tipo tudo ou nada — que seus chips serão pelo menos 10 vezes melhores no treinamento de LLMs e na entrega de resultados do que as GPUs da Nvidia. “A Nvidia é um produto realmente forte, e claramente o produto certo para a maioria das empresas”, disse Pope. “Mas acreditamos que podemos fazer muito melhor”.

A MatX arrecadou US$ 25 milhões, com sua última rodada liderada pela dupla de investidores em IA, Nat Friedman e Daniel Gross. A empresa está localizada em Mountain View, na Califórnia, a alguns quilômetros da primeira fábrica de transistores do Vale do Silício, o Shockley Semiconductor Laboratory, e tem dezenas de funcionários trabalhando duro no chip que a empresa planeja ter no próximo ano. “Os fundadores da MatX são o símbolo de uma tendência em nosso mundo de IA”, disse Gross, pois “estão reunindo algumas das melhores ideias desenvolvidas em algumas das maiores empresas, que são um pouco mais lentas e burocráticas demais, e as comercializando por conta própria”.

Se os softwares de IA continuarem em sua trajetória atual, isso criará uma enorme necessidade computacional cara. Estima-se que os modelos em desenvolvimento devam custar cerca de US$ 1 bilhão cada para se treinar, e seus sucessores poderão custar US$ 10 bilhões para se treinar. A MatX prevê que pode ter um negócio em expansão ao conquistar vários dos principais players de IA, incluindo a OpenAI e a Anthropic PBC. “A economia destas empresas está completamente atrasada em relação às empresas típicas”, disse Gunter. “Essas empresas estão gastando todo esse dinheiro em computação, não em salários. Se as coisas não mudarem, ficarão sem dinheiro”.

O Vale do Silício, como o nome deixa claro, costumava estar repleto de empresas de chips. Havia dezenas de startups, e até as gigantes da informática Hewlett-Packard, IBM e Sun Microsystems fabricavam seus próprios chips. Entretanto, na história mais recente, a Intel reduziu muitos desses esforços por meio de seu domínio nos mercados de PCs e servidores, enquanto empresas como a Samsung Electronics Co. e a Qualcomm Inc. passaram a dominar o mercado de componentes para smartphones. Devido a essas tendências, os investidores começaram a se afastar da alocação de capital em startups de chips, considerando-as muito mais caras, demoradas e arriscadas do que as de software. “Por volta de 2014, eu costumava visitar empresas de capital de risco, e elas haviam removido todos os parceiros que sabiam sobre semicondutores”, disse Rajiv Khemani, especialista em chips que investiu na MatX. “Eu ficava olhando para pessoas que não tinham a menor ideia do que eu estava dizendo”.

No entanto, o crescimento da IA mudou a equação risco/retorno. As empresas com vastos recursos — Amazon.com, Google e Microsoft — investiram na projetação de seus próprios chips tensor para trabalhos de IA. E há vários anos, startups como a Groq Inc. e a Cerebras Systems Inc. surgiram com uma primeira propagação de chips específicos para IA. Mas esses produtos foram projetados antes que os avanços técnicos de IA levassem ao surgimento dos LLMs como as soluções dominantes em IA. As startups tiveram que se ajustar ao interesse repentino nos LLMs e tentar modificar seus produtos instantaneamente. A MatX provavelmente representa o início de outra onda de startups de chips concentradas em LLMs desde sua concepção.

O grande problema ao entrar no setor de chips é que leva de três a cinco anos para projetar e fabricar um novo chip. (A Nvidia, é claro, não ficará parada durante esse período e, na verdade, anunciou uma versão muito mais rápida de suas GPUs neste mês). As startups devem prever onde as tendências tecnológicas e a concorrência estarão, com pouco espaço para erros que poderiam desacelerar a produção. As empresas de software geralmente precisam reescrever seus códigos para serem executados em novos semicondutores, um processo caro e demorado que elas só realizam se esperam obter um grande lucro com a mudança. A regra geral é que um novo chip deve ser pelo menos dez vezes melhor do que o anterior para ter alguma chance de persuadir os clientes a mudar todo o seu código.

Em sua opinião, Gross prevê que estamos no estágio inicial de construção da infraestrutura necessária para apoiar a mudança para a IA como a forma dominante de computação. “Acho que estamos caminhando para um ciclo de semicondutores que faz com que os outros ciclos sejam insignificantes em comparação”, disse ele. Se ele estiver certo, é quase certo que ainda haverá novos impérios de chips a serem criados.

Fonte: Externa

BRAIP ads_banner