Segunda-feira, 23 de dezembro de 2024
Por Redação Rádio Pampa | 30 de julho de 2023
Se você acompanha o mundo do hardware já deve ter percebido que as placas de vídeo (GPUs) têm muitos CUs. Sim, isso mesmo. Por mais bizarro e engraçado que pareça, os CUs são estruturas importantes para mensurar o desempenho de uma GPU.
Na verdade, os CUs são um acrônimo em inglês para Compute Units, ou Unidades Computacionais em tradução livre. É muito comum encontrar o termo no noticiário de tecnologia internacional, mas a imprensa brasileira adotou a tradução completa em Unidades Computacionais para evitar piadinhas — e matérias inusitadas como esta.
Entretanto, no processo de funcionamento de um computador, a placa de vídeo atua junto com os demais componentes para fornecer imagens a uma tela. O processador lê e entende uma série de códigos e envia essa informação “traduzida” para que a placa de vídeo possa criar as imagens que serão exibidas. Um depende do outro para que tudo possa acontecer.
Embora possa parecer algo muito difícil, atualmente a geração de imagens para ler um texto ou navegar na internet é algo fácil de ser feito. Porém, quando o assunto são atividades complexas, como rodar games ou renderizar modelos em 3D e editar vídeos, a placa de vídeo fica sobrecarregada.
Essas tarefas são muito difíceis de serem realizadas, então entra em cena o paralelismo. O paralelismo é a possibilidade de quebrar uma tarefa grande e complexa em várias outras tarefas menores, que podem ser realizadas por outros elementos em menos tempo.
Pense este texto como uma tarefa gigantesca. Ao aplicar o paralelismo, o jornalista vai dividir a matéria em partes: o editor envia a pauta para o redator; o redator faz a apuração do tema; depois é hora de separar em tópicos; começar a escrever; inserir imagens e links; e por fim tudo será revisado e editado pelo editor. O problema grande e complexo — a matéria — foi dividido em partes para que duas pessoas pudessem trabalhar juntas e entregar o melhor conteúdo no menor tempo.
Na placa de vídeo o problema é a geração de imagens e as pessoas utilizadas são os núcleos. Teoricamente, quanto mais núcleos uma placa de vídeo tem, mais rápido será o processamento das imagens.
Unidades Computacionais
Os CUs (ou Unidades Computacionais, como preferir) são nada mais do que um agrupamento de núcleos para que a GPU possa realizar tarefas. Tanto as placas da AMD quanto Nvidia e Intel possuem esses núcleos, mas cada empresa dá um nome diferente para essas estruturas — e a partir daqui as coisas ficam um pouco mais complexas.
A AMD é a empresa que usa o termo Unidades Computacionais para mensurar a quantidade de núcleos em suas placas de vídeo. Dentro do chip de uma GPU há várias estruturas distintas, mas os núcleos acabam sendo mais importantes. Os CUs são um agrupamento de vários núcleos e elementos menores em uma estrutura maior — por isso, são chamados de Unidade.
Portanto, os CUs são uma espécie de “casa” para outros elementos. O elemento mais chamativo é o Stream Processor, que acaba sendo o núcleo principal dentro desse agrupamento de Unidades Computacionais.
A NVIDIA complica um pouco as coisas, pois os nomes começam a se embolar. As GPUs da empresa seguem a mesma lógica: há um agrupamento principal chamado de Stream Multiprocessors e dentro desse conjunto há diversos elementos, como os núcleos. Esses núcleos são chamados de CUDA (Compute Unified Device Architecture). Os CUs estão para os Stream Multiprocessors, assim como os Stream Processors estão para os CUDA.
A Intel também entrou nessa festa e os nomes são bem diferentes, mas seguem a mesma lógica. Dentro dos chips das GPUs Intel Arc, há um conjunto grande chamado de Render Slice. Cada Render Slice agrupa núcleos menores, conhecidos como Xe-Cores e cada Xe-Core agrupa elementos ainda menores, como vetores e matrizes.
Seguindo uma linha de raciocínio similar, os CUs, Stream Multiprocessors e Render Slices são um agrupamento, ou unidade, de elementos. Os Stream Processors, núcleos CUDA e Xe-Cores são propriamente os núcleos.