Início » AWS lança próxima geração de chips próprios
Notícias Corporativas

AWS lança próxima geração de chips próprios

Os novos chips apresentam melhorias em preço e eficiência energética para uma ampla gama de cargas de trabalho das organizações, incluindo treinamento em machine learning (ML) e aplicações de Inteligência Artificial (IA) generativa.

A Amazon Web Services (AWS) anunciou, durante o AWS re:Invent, a nova geração de duas famílias de chips próprios – AWS Graviton4 e AWS Trainium2 –, trazendo melhorias em preço e eficiência energética para uma ampla gama de cargas de trabalho de clientes, incluindo treinamento em machine learning (ML) e aplicações de Inteligência Artificial (IA) generativa. O Graviton4 e o Trainium2 marcam as mais recentes inovações em desenvolvimento de chips da AWS.  Além disso, os clientes podem combinar os chip/instâncias que utilizam com os mais recentes chips de terceiros, como AMD, Intel e NVIDIA – para rodar virtualmente qualquer aplicação ou workload no Amazon Elastic Compute Cloud (Amazon EC2).

O Graviton4 oferece até 30% mais desempenho computacional, 50% mais cores e 75% mais largura de banda de memória do que a atual geração de processadores Graviton3, entregando melhor desempenho de preço e eficiência energética para uma ampla gama de cargas de trabalho rodando no Amazon EC2.

O Trainium2 foi desenvolvido para entregar treinamentos até 4x mais rápidos do que a primeira geração de chips Trainium e poderá ser instalado em UltraClusters EC2 de até 100.000 chips, viabilizando o treinamento de modelos fundacionais (FMs) e LLM (Large Language Model) em uma fração de tempo, e melhorando a eficiência energética em até 2x.

“O silício sustenta todas as cargas de trabalho dos clientes, fazendo dele um elemento crítico de inovação para a AWS”, afirmou David Brown, vice-presidente de Computação e Redes da AWS. “Ao focar o design de nossos chips em workloads reais, que de fato interessam aos clientes, conseguimos entregar a mais avançada infraestrutura de nuvem para eles. O Graviton4 é a quarta geração que lançamos em cinco anos, e é o chip mais poderoso e de melhor eficiência energética que já desenvolvemos para uma ampla gama de cargas de trabalho. E diante do crescente interesse em IA generativa, o Trainium2 ajudará os clientes a treinarem seus modelos de ML mais rapidamente, a custos reduzidos e com melhor eficiência energética.”

Graviton4 eleva desempenho de preço e eficiência energética

Hoje, a AWS oferece globalmente mais de 150 tipos de instâncias Amazon EC2 rodando Graviton, construiu mais de 2 milhões de processadores Graviton e possui mais de 50.000 clientes – incluindo os 100 maiores clientes de ECS – utilizando instâncias baseadas no Graviton. Clientes como Datadog, DirecTV, Discovery, Formula 1 (F1), Nielsen, Pinterest, SAP, Snowflake, Sprinklr e Zendesk usam instâncias baseadas no Graviton para rodar cargas de trabalho como bancos de dados, analytics, servidores web, processamento batch, veiculação de anúncios, servidores de aplicações e microsserviços.

Conforme os clientes trazem mais bancos de dados in-memory e cargas de trabalho de análise de dados para a nuvem, suas demandas computacionais, de memória, armazenamento e de redes aumentam. Como resultado, eles precisam de mais desempenho e instâncias ainda maiores para rodar essas cargas de trabalho. Ao mesmo tempo, precisam gerenciar custos e reduzir seu impacto ambiental com opções de computação de mais eficiência energética. O Graviton é suportado por muitos serviços gerenciados da AWS, incluindo Amazon Aurora, Amazon ElastiCache, Amazon EMR, Amazon MemoryDB, Amazon OpenSearch, Amazon Relational Database Service (Amazon RDS), AWS Fargate e AWS Lambda. 

Os chips Trainium2 foram desenvolvidos para treinamentos de alto desempenho de FMs e LLMs com trilhões de parâmetros. O Trainium2 estará disponível nas instâncias Trn2 do Amazon EC2 com 16 chips em uma única instância. As instâncias Trn2 devem permitir que os clientes escalem a até 100.000 chips Trainium2 na próxima geração de UltraClusters EC2, interconectados com AWS Elastic Fabric Adapter (EFA) em redes de escala petabyte, capazes de entregar até 65 exaflops de capacidade computacional, dando aos clientes acesso sob demanda a desempenho de nível de supercomputadores. Com essa escalabilidade, os clientes podem treinar um LLM com 300 bilhões de parâmetros em semanas ao invés de meses e acelerar a próxima onda de avanços em IA generativa.

Uma das principais defensoras do desenvolvimento responsável de IA generativa, a Anthropic é uma empresa de pesquisa e segurança de IA. Cliente AWS desde 2021, a Anthropic lançou recentemente o Claude – um assistente de IA focado em ser útil, inofensivo e honesto. “Desde o seu lançamento no Amazon Bedrock, o Claude tem sido rapidamente adotado pelos clientes AWS”, disse Tom Brown, cofundador da Anthropic. “Estamos trabalhando bastante próximos da AWS para desenvolver nossos próximos modelos fundacionais utilizando os chips Trainium. O Trainium2 nos ajudará a criar e treinar modelos em grande escala. Esperamos que seja pelo menos 4x mais rápido do que os chips da primeira geração do Trainium para algumas de nossas principais cargas de trabalho. Nossa colaboração com a AWS ajudará organizações de todos os tamanhos a destravar novas possibilidades à medida que utilizam os sistemas de IA inovadores da Anthropic juntamente com a tecnologia cloud segura e confiável da AWS.”

Entre as empresas que utilizam os chips da AWS estão também a Databrick, Datadog, Epic, Honeycomb e SAP HANA Cloud.