GPU

A Unidade de Processamento Gráfico (GPU) é um circuito eletrônico especializado projetado para manipular rapidamente e alterar a memória para acelerar a criação de imagens em um buffer de quadro destinado à saída para um dispositivo de exibição.

GPUs são projetadas para executar processamento paralelo, tornando-as altamente eficientes para tarefas que envolvem grandes conjuntos de dados e cálculos complexos. Ao contrário das CPUs, que são otimizadas para computação de uso geral e tarefas sequenciais, as GPUs se destacam no tratamento de operações de matriz e cargas de trabalho paralelas inerentes à renderização de gráficos, aprendizado de máquina e simulações científicas. Elas consistem em milhares de núcleos menores, permitindo que processem várias operações simultaneamente, aumentando significativamente o desempenho para aplicações computacionalmente intensivas.

No contexto da infraestrutura de IA, as GPUs são cruciais para treinar e executar modelos de aprendizado de máquina. Suas capacidades de processamento paralelo permitem um treinamento de modelo mais rápido, permitindo que pesquisadores e engenheiros iterem mais rapidamente e implantem modelos de forma mais eficiente. A demanda por GPUs aumentou com o crescimento da IA, levando a avanços na tecnologia de GPU e ao desenvolvimento de hardware especializado otimizado para cargas de trabalho de IA.

        graph LR
  Center["GPU"]:::main
  Rel_asic["asic"]:::related -.-> Center
  click Rel_asic "/terms/asic"
  Rel_asus_rog["asus-rog"]:::related -.-> Center
  click Rel_asus_rog "/terms/asus-rog"
  classDef main fill:#7c3aed,stroke:#8b5cf6,stroke-width:2px,color:white,font-weight:bold,rx:5,ry:5;
  classDef pre fill:#0f172a,stroke:#3b82f6,color:#94a3b8,rx:5,ry:5;
  classDef child fill:#0f172a,stroke:#10b981,color:#94a3b8,rx:5,ry:5;
  classDef related fill:#0f172a,stroke:#8b5cf6,stroke-dasharray: 5 5,color:#94a3b8,rx:5,ry:5;
  linkStyle default stroke:#4b5563,stroke-width:2px;

      

🧠 Teste de conhecimento

1 / 3

🧒 Explique como se eu tivesse 5 anos

Uma GPU é como uma equipa de trabalhadores super rápida, cada um a fazer uma pequena parte de um grande trabalho de desenho ao mesmo tempo. Isto torna-a muito mais rápida a criar imagens e vídeos do que um único trabalhador versátil (como uma [CPU](/pt/terms/cpu)).

🤓 Expert Deep Dive

A diferença arquitetural entre CPUs e GPUs reside na sua filosofia de design central: as CPUs priorizam baixa latência e troca de tarefas para operações sequenciais, apresentando poucos núcleos potentes, caches grandes e lógica de controle complexa. As GPUs, por outro lado, priorizam alto rendimento para operações paralelas, apresentando milhares de núcleos mais simples agrupados em multiprocessadores de streaming (SMs). Cada SM contém inúmeros núcleos CUDA (NVIDIA) ou Stream Processors (AMD), juntamente com unidades especializadas para tarefas como mapeamento de texturas e ray tracing. A largura de banda da memória é crítica para o desempenho da GPU; memória de alta largura de banda (HBM) ou variantes GDDR são empregadas para alimentar eficientemente os numerosos núcleos. Em deep learning, a arquitetura de dispositivo unificado de computação (CUDA) para GPUs NVIDIA fornece uma plataforma de computação paralela e um modelo de programação que abstrai o hardware subjacente, permitindo que os desenvolvedores aproveitem o poder da GPU para computação de propósito geral (GPGPU). As compensações envolvem consumo de energia, geração de calor e a complexidade da programação para arquiteturas massivamente paralelas. Aceleradores de IA especializados (por exemplo, TPUs) oferecem otimização adicional para cargas de trabalho específicas de ML, às vezes superando as GPUs em eficiência energética para certas tarefas.

📚 Fontes