GPU

Eine Graphics Processing Unit (GPU) ist ein spezialisierter elektronischer Schaltkreis, der entwickelt wurde, um das Gedächtnis schnell zu manipulieren und zu ändern, um die Erstellung von Bildern in einem Rahmenpuffer zu beschleunigen, der für die Ausgabe auf ein Displaygerät bestimmt ist.

GPUs sind für die parallele Verarbeitung konzipiert, was sie für Aufgaben mit großen Datensätzen und komplexen Berechnungen sehr effizient macht. Im Gegensatz zu CPUs, die für allgemeine Rechenaufgaben und sequenzielle Aufgaben optimiert sind, zeichnen sich GPUs bei der Verarbeitung von Matrixoperationen und parallelen Arbeitslasten aus, die dem Grafikrendering, dem maschinellen Lernen und wissenschaftlichen Simulationen innewohnen. Sie bestehen aus Tausenden von kleineren Kernen, die es ihnen ermöglichen, mehrere Operationen gleichzeitig zu verarbeiten, wodurch die Leistung für rechenintensive Anwendungen erheblich gesteigert wird.

Im Kontext der KI-Infrastruktur sind GPUs entscheidend für das Training und die Ausführung von Machine-Learning-Modellen. Ihre parallelen Verarbeitungsmöglichkeiten ermöglichen ein schnelleres Modelltraining, wodurch Forscher und Ingenieure schneller iterieren und Modelle effizienter einsetzen können. Die Nachfrage nach GPUs ist mit dem Wachstum der KI gestiegen, was zu Fortschritten in der GPU-Technologie und der Entwicklung von spezialisierter Hardware geführt hat, die für KI-Workloads optimiert ist.

        graph LR
  Center["GPU"]:::main
  Rel_asic["asic"]:::related -.-> Center
  click Rel_asic "/terms/asic"
  Rel_asus_rog["asus-rog"]:::related -.-> Center
  click Rel_asus_rog "/terms/asus-rog"
  classDef main fill:#7c3aed,stroke:#8b5cf6,stroke-width:2px,color:white,font-weight:bold,rx:5,ry:5;
  classDef pre fill:#0f172a,stroke:#3b82f6,color:#94a3b8,rx:5,ry:5;
  classDef child fill:#0f172a,stroke:#10b981,color:#94a3b8,rx:5,ry:5;
  classDef related fill:#0f172a,stroke:#8b5cf6,stroke-dasharray: 5 5,color:#94a3b8,rx:5,ry:5;
  linkStyle default stroke:#4b5563,stroke-width:2px;

      

🧠 Wissenstest

1 / 3

🧒 Erkläre es wie einem 5-Jährigen

Eine GPU ist wie ein superschnelles Team von Arbeitern, die alle gleichzeitig an einem kleinen Teil einer großen Zeichenaufgabe arbeiten. Das macht sie viel schneller beim Erstellen von Bildern und Videos als ein einzelner Alleskönner (wie eine [CPU](/de/terms/cpu)).

🤓 Expert Deep Dive

Der architektonische Unterschied zwischen CPUs und GPUs liegt in ihrer grundlegenden Designphilosophie: CPUs priorisieren niedrige Latenzzeiten und schnelles Task-Switching für sequentielle Operationen und verfügen über wenige leistungsstarke Kerne, große Caches und komplexe Steuerlogik. GPUs hingegen priorisieren einen hohen Durchsatz für parallele Operationen und verfügen über Tausende von einfacheren Kernen, die in Streaming-Multiprocessoren (SMs) gruppiert sind. Jeder SM enthält zahlreiche CUDA-Kerne (NVIDIA) oder Stream-Prozessoren (AMD) sowie spezialisierte Einheiten für Aufgaben wie Textur-Mapping und Raytracing. Die Speicherbandbreite ist entscheidend für die GPU-Leistung; Hochbandbreitenspeicher (HBM) oder GDDR-Varianten werden eingesetzt, um die zahlreichen Kerne effizient zu versorgen. Im Bereich Deep Learning bietet die Compute Unified Device Architecture (CUDA) für NVIDIA-GPUs eine parallele Computing-Plattform und ein Programmiermodell, das die zugrunde liegende Hardware abstrahiert und es Entwicklern ermöglicht, die GPU-Leistung für allgemeine Berechnungen (GPGPU) zu nutzen. Kompromisse beinhalten Stromverbrauch, Wärmeentwicklung und die Komplexität der Programmierung für massiv parallele Architekturen. Spezialisierte KI-Beschleuniger (z. B. TPUs) bieten weitere Optimierungen für spezifische ML-Workloads und übertreffen manchmal GPUs in der Energieeffizienz für bestimmte Aufgaben.

📚 Quellen