AMD tem anunciado o lançamento da plataforma Radeon Open Compute (ROCm) 5.6, a versão mais recente de sua plataforma de código aberto para GPU Compute. Se você deseja comprar uma GPU contemporânea, o ROCM oferece suporte oficial apenas às placas gráficas de estação de trabalho AMD Instinct RDNA 2. No entanto, a AMD está respondendo aos comentários sobre os desafios de usar o ROCm em outras GPUs da AMD e decidiu ampliar seu suporte. Em algum momento deste outono, a AMD expandirá o suporte a ROCm para mais GPUs RDNA 2 e selecionará estações de trabalho AMD RDNA 3 e GPUs de consumo.
O interesse do consumidor em GPU Compute cresceu consideravelmente devido a avanços em inteligência artificial e aprendizado de máquina. A aceleração de IA se transformou de ‘por que eu iria querer isso’ em um recurso altamente desejável. Talvez essa mudança no universo da computação tenha pego alguns de surpresa. A AMD, por exemplo, inclui aceleração de IA apenas em seus chips Ryzen 7040 Phoenix para consumidores. Por outro lado, os fabricantes de processadores móveis vêm adicionando e ajustando a aceleração de IA há várias gerações.
Diz-se que o AMD ROCm oferece um conjunto abrangente de otimizações para cargas de trabalho de IA e HPC. Possui “kernels ajustados para grandes modelos de linguagem, suporte para novos tipos de dados e suporte para novas tecnologias como a linguagem de programação OpenAI Triton”.
O suporte inicial para ROCm em GPUs RDNA 3 será lançado no outono. As primeiras placas gráficas a obter suporte oficial serão a Radeon PRO W7900 de 48 GB e a Radeon RX 7900 XTX de 24 GB, de acordo com o blog AMD Community. Suporte para cartões RDNA 3 adicionais e recursos expandidos serão adicionados ao longo do tempo.
Enquanto isso, o mais novo lançamento do ROCm 5.6 da AMD parece ser menos exigente sobre em quais GPUs ele será executado. A AMD diz que ouviu falar de membros da comunidade reclamando sobre problemas de driver em GPUs não suportadas, mas que “corrigiu os problemas relatados no ROCm 5.6 e estamos comprometidos em expandir nosso suporte daqui para frente”.