O chip, segunda geração de uma linha de silício desenvolvida internamente que a Meta anunciou no ano passado, tem o objetivo de reduzir a dependência da empresa em relação aos chips da Nvidia

A Meta Platforms, proprietária do Facebook (META.O), planeja, de acordo com um documento interno visto pela Reuters nesta quinta-feira, lançar uma nova versão de um chip personalizado em seus data centers ainda este ano, como parte de seu impulso em inteligência artificial (IA). 

O chip, segunda geração de uma linha de silício desenvolvida internamente que a Meta anunciou no ano passado, tem o objetivo de reduzir a dependência da empresa em relação aos chips da Nvidia, que dominam o mercado, e controlar os custos crescentes associados à execução de cargas de trabalho de IA, enquanto corre para lançar produtos de IA.

A maior empresa de mídia social do mundo tem se esforçado para aumentar sua capacidade computacional para os produtos de inteligência artificial generativa, que consomem muita energia, e está integrando esses produtos nos aplicativos Facebook, Instagram e WhatsApp, bem como em dispositivos de hardware como seus óculos inteligentes Ray-Ban. A empresa tem gastado bilhões de dólares para acumular arsenais de chips especializados e reconfigurar centros de dados para acomodá-los.

Na escala em que a Meta opera, uma implementação bem-sucedida de seu próprio chip poderia potencialmente economizar centenas de milhões de dólares em custos anuais de energia e bilhões em custos de compra de chips, conforme apontado por Dylan Patel, fundador do grupo de pesquisa SemiAnalysis.

Os chips, infraestrutura e energia necessários para executar aplicações de inteligência artificial tornaram-se um enorme sumidouro de investimento para empresas de tecnologia, em certa medida compensando os ganhos feitos na empolgação em torno da tecnologia.

Um porta-voz da Meta confirmou o plano de colocar o chip atualizado em produção em 2024, afirmando que ele funcionaria em coordenação com centenas de milhares de unidades de processamento gráfico (GPUs) prontas para uso - os chips preferidos para IA - que a empresa estava adquirindo.

"Vemos nossos aceleradores desenvolvidos internamente como altamente complementares às GPUs comercialmente disponíveis, proporcionando a mistura ideal de desempenho e eficiência em cargas de trabalho específicas da empresa," afirmou o porta-voz em um comunicado.

O CEO da Meta, Mark Zuckerberg, afirmou no mês passado que a empresa planejava ter até o final do ano cerca de 350.000 processadores "H100" da Nvidia, que produz as GPUs mais procuradas para uso em IA. 

Combinados com outros fornecedores, a Meta acumularia uma capacidade computacional equivalente a 600.000 H100s no total, segundo ele. A implantação do próprio chip como parte desse plano representa uma virada positiva para o projeto de silício de IA interno da Meta, após a decisão dos executivos em 2022 de interromper a primeira iteração do chip.

Em vez disso, a empresa optou por comprar bilhões de dólares em GPUs da Nvidia, que têm quase um monopólio em um processo de IA chamado treinamento, que envolve alimentar enormes conjuntos de dados em modelos para ensiná-los a realizar tarefas. O novo chip, referido internamente como "Artemis", assim como seu antecessor, só pode realizar um processo conhecido como inferência, no qual os modelos são chamados para usar seus algoritmos para fazer julgamentos de classificação e gerar respostas às solicitações do usuário.

A Reuters informou no ano passado que a Meta também está trabalhando em um chip mais ambicioso que, assim como as GPUs, seria capaz de realizar tanto o treinamento quanto a inferência. A empresa sediada em Menlo Park, na Califórnia, compartilhou detalhes sobre a primeira geração de seu programa Meta Training and Inference Accelerator (MTIA) no ano passado. O anúncio retratou aquela versão do chip como uma oportunidade de aprendizado.

Apesar desses contratempos iniciais, um chip de inferência pode ser consideravelmente mais eficiente ao processar os modelos de recomendação da Meta do que os processadores sedentos de energia da Nvidia, de acordo com Patel. "Há muito dinheiro e poder sendo gastos que poderiam ser economizados", disse.

Qual a sua reação?



Comentários no Facebook