Amazon lança GPU-cloud para projetos de big data e inteligência artificial

Big DataCloudData StorageInovaçãoNegócios
1 20 Sem Comentários

Unidades de processamento de vídeo dribla as barreiras de evolução das CPUs convencionais com mais transistores em memórias com processamento em paralelo. Novo serviço da AWS integra até 16 GPUs da Nvidia somando 192 GB de memória de vídeo e 40 mil núcleos de processadores em paralelo.

Para aumentar a capacidade de processamento de seus serviços em nuvem, a Amazon Web Services (AWS) integrou uma nova instância de serviços à sua Amazon Elastic Compute Cloud (EC2) baseado em unidades de processamento gráfico (GPUs). Com o nome de P2, a GPU-cloud da Amazon é voltada para aplicações que necessitam de grandes quantidades de processamento de dados em paralelo em projetos de big data e inteligência artificial, como análises sísmicas, modelagem molecular, genomas, machine learning em larga escala, deep learning, computational fluid dynamics (CFD) e ainda aplicações para o mercado financeiro.

As novas instâncias do P2 incorporam até oito aceleradores Tesla K80 da Nvidia, cada um deles rodando um par de GPUs Nvidia GK210 – com 12 GB de memória e 2,496 mil cores de processamento paralelo cada. No total, são 192 GB de memoria de vídeo e 40 mil núcleos de processadores paralelos com 70 teraflops que dobram a performance de floating point, com baixa latência na comunicação entre GPUs.

É interessante notar que embora as GPUs tenham sido usadas inicialmente para games, essas unidades de processamento gráfico se mostraram eficientes para expandir os limites de capacidade de processamento ao alocar mais processadores e bancos de memória em paralelo, conseguindo assim ampliar significativamente a capacidade computacional com um maior número de transistores com uma performance superior, uma vez que o approach tradicional com unidades de processamento computacional (CPUs) estão cada vez mais próximas do limite de evolução.

Em nota no blog da AMS, Jeff Bar, chief evangelist da empresa, explica que usando serviços baseados em GPUs na nuvem, os clientes conseguem construir aplicações de computação intensiva usando a plataforma de computação paralela CUDA ou o framework OpenCL sem grendes investimentos de capital.

A P2 está disponível em três versões: p2.16xlarge, com 16 GPUs; p2.8xlarge, com 8 GPUs; e a p2.xlarge, com uma 1 GPU.


Clique para ler a bio do autor  Clique para fechar a bio do autor