본문 바로가기
반도체, 소.부.장.

데이터 인프라 확장 수혜를 받는 프로세서 시장

by 뜨리스땅 2024. 2. 17.
728x90
반응형

AI 학습용 데이터센터 수혜는 프로세서에 집중

 

프로세서(Logic)는 컴퓨팅 시스템의 두뇌 역할을 하는 만큼 반도체 산업에서도 가장 기술 집약적이며 성능과 안정성, 호환성이 중요하다. 오랜 시간 쌓아올린 선도 업체들의 레퍼런스와 기술 개발에 막대한 비용과 시간이 소요된다는 점이 독과점적인 시장 구조를 만들었으며, 신규 업체들의 진입 장벽을 높이고 있다.

 

대규모 연산 속도가 중요한 AI 데이터센터 투자에서 대부분의 고객사들은 AI 컴퓨팅 성능의 극대화를 우선 순위로 두고 있다. 한정된 CapEx 안에서 학습용 데이터 인프라가 증설 수요의 대부분을 차지했던 2023년에는 GPU의 상대적 수혜가 강할 수밖에 없는 시장 환경이 이어졌다.

 

 

2024년 하반기부터는 온디바이스, 엣지서버 등에서 추론(Inference) 수요가 확대되며 일반 서버 수요도 반등이 가능할 것으로 판단돼 시스템반도체 전반의 성장 가시성이 확보될 것으로 기대된다. 세부 애플리케이션별 학습 모델이 확산되며 ASIC, NPU와 같은 다양한 주문 제작형 반도체의 수혜가 예상된다.

 

 

 

 

 

 

GPU 시장 지배력 훼손될 가능성 제한적

 

AI 서버 수요 증가세가 지속되며 주요 프로세서 업체들의 매출에서 데이터센터의 비중은 급격히 증가했다. AI 최대 수혜주로 꼽히는 엔비디아의 데이터센터 매출 비중은 76%까지 급증했으며, AI 반도체 시장 내 점유율은 90%에 육박했다. 학습용 AI 서버에서 절대적인 영향력을 보유한 만큼 엔비디아의 견고한 시장 지배력은 2024년에도 유효할 것으로 판단된다.

 

 

응용처별 추론용 AI 시장에서는 GPU를 대체할 다양한 형태의 AI 칩들이 등장할 전망이다. 다만 엔비디아의 CUDA 생태계의 종속 효과를 벗어날 수 있는 업체들은 자본과 기술력을 갖추고 미리 대비한 일부 업체들에 한정될 가능성이 높아보여 AI 서버 시장에서 엔비디아의 경쟁 우위는 지속될 것으로 판단되며, 강한 매출 성장세가 이어질 전망이다.

 

 

 

 

 

차세대 제품의 조기 출시 가능성도 부각

 

엔비디아의 차세대 서버용 GPU 로드맵에서 추론 수요도 놓치지 않겠다는 의지가 엿보인다. 과거 2년 주기로 서버용 GPU를 출시해왔으나 2024년부터는 매년 상반기 기존 제품을 업그레이드한 후속 제품을 발표하고, 하반기에는 신제품을 출시할 계획이다. 학습, 추론 제품군이 세분화되기 시작해 라인업이 개편됐다.

 

 

업계에서는 연말 예정된 차세대 서버용 GPU B100(Blackwell)의 조기 출시 가능성도 언급되고 있으며, TSMC를 비롯한 첨단패키징 업체들의 적극적인 CoWoS Capa 증설이 이뤄지고 있는 것이 확인된다. 현재 H100은 학습용 AI 서버에, A100은 추론용 AI 서버에 활용되고 있는 것으로 파악되며, 2024년 출시되는 L40S가 A100 추론 수요를 대체하며 CoWoS Capa의 병목현상이 완화될 것으로 예상된다. 추론 시장에 진입할 AI 반도체 업체들은 엔비디아 기반의 학습 모델과 호환성을 확보해야할 것으로 판단된다. L40S의 차세대 모델인 B40의 출시 시점에는 신규 업체들의 경쟁 난이도가 더욱 높아질 전망이다. 향후 엔비디아 서버향 GPU 밸류체인의 낙수 효과는 지속될 것으로 기대된다.

 

 

출처: 신한투자증권, 회사자료

 

뜨리스땅

 

 

 

https://tristanchoi.tistory.com/596

 

온디바이스 AI 구현을 위한 프로세서 업체들의 방향성

CPU 업체들은 본격적인 제품 다변화를 추진 스마트폰 온디바이스 AI 기능 구현에 시장의 관심이 집중돼 있으나 시스템의 구조적인 면에서 PC 업종이 한 발 앞서 있다. S/W와 플랫폼이 확장성을 증

tristanchoi.tistory.com

 

728x90
반응형

댓글