GPU
Graphics Processing Unit (GPU)는 디스플레이 장치로 출력하기 위한 프레임 버퍼에서 이미지를 생성하는 것을 가속화하기 위해 메모리를 신속하게 조작하고 변경하도록 설계된 전문 전자 회로입니다.
GPU는 병렬 처리를 수행하도록 설계되어 대규모 데이터 세트 및 복잡한 계산을 포함하는 작업에 매우 효율적입니다. 범용 컴퓨팅 및 순차적 작업에 최적화된 CPU와 달리 GPU는 그래픽 렌더링, 머신 러닝 및 과학 시뮬레이션에 내재된 행렬 연산 및 병렬 워크로드를 처리하는 데 뛰어납니다. 수천 개의 작은 코어로 구성되어 있어 여러 작업을 동시에 처리할 수 있으므로 계산 집약적인 애플리케이션의 성능을 크게 향상시킵니다.
AI 인프라의 맥락에서 GPU는 머신 러닝 모델을 훈련하고 실행하는 데 매우 중요합니다. 병렬 처리 기능을 통해 모델 훈련 속도가 빨라져 연구원과 엔지니어가 더 빠르게 반복하고 모델을 보다 효율적으로 배포할 수 있습니다. AI의 성장과 함께 GPU에 대한 수요가 급증하여 GPU 기술 발전과 AI 워크로드에 최적화된 특수 하드웨어 개발로 이어졌습니다.
graph LR
Center["GPU"]:::main
Rel_asic["asic"]:::related -.-> Center
click Rel_asic "/terms/asic"
Rel_asus_rog["asus-rog"]:::related -.-> Center
click Rel_asus_rog "/terms/asus-rog"
classDef main fill:#7c3aed,stroke:#8b5cf6,stroke-width:2px,color:white,font-weight:bold,rx:5,ry:5;
classDef pre fill:#0f172a,stroke:#3b82f6,color:#94a3b8,rx:5,ry:5;
classDef child fill:#0f172a,stroke:#10b981,color:#94a3b8,rx:5,ry:5;
classDef related fill:#0f172a,stroke:#8b5cf6,stroke-dasharray: 5 5,color:#94a3b8,rx:5,ry:5;
linkStyle default stroke:#4b5563,stroke-width:2px;
🧠 지식 테스트
🧒 5살도 이해할 수 있게 설명
GPU는 마치 엄청나게 빠른 일꾼 팀과 같아요. 이 일꾼들은 모두 동시에 커다란 그림을 그리는 작업의 아주 작은 부분들을 나눠서 처리하죠. 그래서 혼자서 모든 일을 다 하는 일꾼([CPU](/ko/terms/cpu) 같은)보다 훨씬 빠르게 그림이나 영상을 만들어낼 수 있어요.
🤓 Expert Deep Dive
CPU와 GPU의 아키텍처 차이는 핵심 설계 철학에 있습니다. CPU는 소수의 강력한 코어, 대용량 캐시, 복잡한 제어 로직을 특징으로 하며 순차적 연산을 위한 낮은 지연 시간과 빠른 작업 전환을 우선시합니다. 반면 GPU는 수천 개의 단순한 코어를 스트리밍 멀티프로세서(SM)로 그룹화하여 병렬 연산을 위한 높은 처리량을 우선시합니다. 각 SM에는 텍스처 매핑 및 레이 트레이싱과 같은 작업을 위한 특수 유닛과 함께 수많은 CUDA 코어(NVIDIA) 또는 스트림 프로세서(AMD)가 포함됩니다. 수많은 코어에 효율적으로 데이터를 공급하기 위해 고대역폭 메모리(HBM) 또는 GDDR 변형이 사용되므로 메모리 대역폭은 GPU 성능에 매우 중요합니다. 딥러닝에서 NVIDIA GPU의 CUDA(Compute Unified Device Architecture)는 병렬 컴퓨팅 플랫폼 및 프로그래밍 모델을 제공하여 기본 하드웨어를 추상화하고 개발자가 범용 컴퓨팅(GPGPU)을 위해 GPU 성능을 활용할 수 있도록 합니다. 이러한 아키텍처는 전력 소비, 발열, 그리고 대규모 병렬 아키텍처 프로그래밍의 복잡성이라는 절충점을 수반합니다. TPUs와 같은 특수 AI 가속기는 특정 ML 워크로드에 대한 추가 최적화를 제공하며, 특정 작업에서는 에너지 효율성 면에서 GPU를 능가하기도 합니다.