본문 바로가기

반도체, 소.부.장.235

CUDA: 소프트웨어 때문에 하드웨어를 못 바꾸나? 프로그래밍 언어, API, 프레임워크를 제공하는 CUDA CUDA(Compute Unified Device Architecture)는 2007년에 출시된 NVIDIA의 소프트웨어 지원 플랫폼으로 프로그래머들이 프로그램을 손쉽게 코딩할 수 있도록 도와주는 여러 기능들을 제공하는 플랫폼이다. CUDA는 1. C/C++를 기반으로 한 GPU 전용 프로그래밍 언어를 제공하며 2. 다양한 딥러닝 프레임워크와 API를 제공하여, 수학 계산, 데이터 분석, 이미지 처리 등의 작업을 효율적으로 수행할 수 있게 도와준다. 먼저 CUDA가 제공하는 프로그래밍 언어는 프로그래머들이 사용하는 C언어 C++언어를 확장하여 GPU에 최적화된 코드를 짤 수 있도록 도와준다. 이 확장된 언어는 여러 키워드를 사용하여 GPU를 위한 .. 2024. 2. 28.
NVIDIA GPU의 Core 구조: CUDA Core와 Tensor Core 1. CPU와 CPU의 Core CPU와 마찬가지로 GPU 내부에도 연산을 처리할 수 있는 Core들이 존재한다. 하지만 CPU와 GPU Core 구성에는 큰 차이가 존재한다. CPU는 하나의 Core가 순차적으로 직렬 처리되는 프로세스를 효율적으로 처리하기 위해 만기 때문에 단일 Core 성능을 GPU와 비교한다면 월등히 뛰어나다고 할 수 있다. 하지만 GPU는 병렬 처리를 기반으로 한 아키텍쳐를 채택해 설계되었기 때문에 여러 Data들을 병렬로 효율적으로 처리할 수 있습다. 이러한 이유로 GPU를 Throughput 기반의 Architecture라고 부르기도 한다. GPU는 CPU보다 더 단순한 Core들로 구성되어 있지만 CPU가 일반적으로 1에서 8개의 Core를 갖는 것에 비해 GPU는 보통 수.. 2024. 2. 28.
NPU: 딥러닝에 최적화된 칩 추론의 영역으로 들어서며 GPGPU와 NPU의 경쟁 본격화 NPU(Neural Processing Unit)는 우리가 일반적으로 추론용 AI 반도체로 알고 있는 하드웨어이다. 우리가 이렇게 알고 있는 이유는 AI 모델에 광범위한 데이터를 학습시키는 것에는 범용성이 뛰어난 GPGPU(General Purpose Graphic Processing Unit)가 적합하고, 이를 활용하여 답변이나 이미지를 생성하는 것에 더 적합한 반도체는 특수목적성을 가진 NPU(Nerual Processing Unit)라고 많이 알려져 있기 때문이다. 하지만 과연 학습을 할 때 범용성을 가지고 있는 것이 반드시 유리할까? 예를 들어 자율주행 AI를 구현할 때 아무 목적성이 없는 GPGPU를 탑재해 AI를 학습시키는 것이 빠를까.. 2024. 2. 27.
딥러닝: AI에 최적화된 알고리즘 인간의 신경망처럼 학습하는 딥러닝 생성형 AI를 구축하는 방법으로 널리 사용되는 프로그래밍 방식은 딥러닝이다. 딥러닝은 인공지능의 아버지라 불리는 제프리 힌튼 교수에 의해 붙여진 이름인데 초기에는 Neural Network라는 이름으로 불려왔다. 이러한 딥러닝이 특히 세상에 널리 알려지게 된 계기는 이미지넷 대회(Image Net)에서 딥러닝이 압도적인 성과를 내면서부터이다. 이미지넷 대회, 정식 명칭으로 ImageNet Large Scale Visual Recognition Challenge (ILSVRC)는 2010년에 시작된 컴퓨터 비전 분야의 중요한 대회로, 컴퓨터 시스템이 이미지 분류, 객체 탐지, 객체 위치 식별 등의 작업을 얼마나 잘 수행하는지 평가하는 데 목적이 있다. 참가 팀들은 주어진 .. 2024. 2. 27.
엔비디아(NVIDIA) 아키텍처 로드맵 엔비디아는 2023년 10월 투자자 발표 슬라이드에서 "2024년 ~ 2025년의 차세대 '서버(데이터센터) GPU' 로드맵이 공개했다. ①-1. 서버(데이터센터) 'GPU' : x86 마이크로아키텍처 '훈련 & 추론' - 2021년 : A100 - 2023년 : H100 - 2024년 : H200, B100 - 2025년 : X100 ①-2. 서버(데이터센터) 'GPU' : x86 마이크로아키텍처 '엔터프라이즈 & 추론' - 2023년 : H100 - 2024년 : H200 → L40S / B100 → B40 - 2025년 : X100 → X40 ①-3. 서버(데이터센터) '슈퍼 반도체(ARM CPU + GPU)' : 'ARM-홀딩스' 마이크로아키텍처 '추론' → 2024년 : H200 ☞ GH200 .. 2024. 2. 26.
에스티아이 - 2024Q1 전망 4Q23 영업이익 119억원으로 컨센서스(67억원) 상회 4Q23 실적은 매출액 901억원(+34.9%, 이하 QoQ), 영업이익 119억원(+749.4%)으로 컨센서스(67억원)를 상회했다. Reflow향 주요 고객사의 HBM Capa 증설은 여전히 진행되고 있다. 예상 대비 이른 시점인 4Q23에 Reflow 매출을 인식하기 시작하며 실적 개선을 이끌었다. 수익성이 높은 제품의(Reflow 장비 OPM은 25% 안팎) 매출 인식 및 부가가치가 높은 프로젝트 중심의 영업활동 영향으로, 상승 Cycle 이었던 4Q21 이후 처음으로 두 자릿수 영업이익률을 기록했다. 1Q24 영업이익 76억원(-36.3% QoQ)으로 전망 1Q24 실적은 매출액 813억원(-9.8%), 영업이익 76억원(-36.3%)으로.. 2024. 2. 25.