Uma Qualcomm anunciou o lançamento de uma nova geração de aceleradores de IA projetada para data centers corporativos. Os módulos AI200 e AI250, juntamente com racks prontos para uso neles, foram revelados ontem. Essas soluções são projetadas para modelos generativos de computação e combinam escalabilidade, eficiência energética e alto rendimento, segundo a empresa.
O novo hardware é baseado na arquitetura NPU (Unidade de Processamento Neural), de aceleração neural especializada criada pela Qualcomm para acelerar a inferência de modelos de IA. Os desenvolvedores visam melhorar o desempenho por dólar por watt — um classificações de desempenho fundamental para a infraestrutura moderna de aprendizado de máquina.
O acelerador base AI200 é um módulo de montagem em rack otimizado para processamento de sistemas linguísticos e multimodais. Cada placa é equipada com 768 GB de memória LPDDR, garantindo alta densidade computacional e resiliência ao trabalhar com grandes conjuntos de dados. Um perfil de energia aprimorado reduz o custo total de propriedade, tornando a implantação de sistemas generativos mais acessíveis para operadoras de data centers.
