Blackwell6 NVIDIA의 Blackwell 발열 이슈는 해결 가능할까? 1. Blackwell은 발열 이슈가 있는가? 최근 Nvidia의 차세대 AI 칩인 Blackwell(블랙웰)과 관련하여 발열 문제와 양산 지연에 대한 여러 보도가 있었다. 이에 대해 젠슨 황 CEO가 공개한 주요 내용은 다음과 같다. 설계 결함 인정 젠슨 황 CEO는 Blackwell 칩에 설계 결함이 있었음을 인정했다. 그는 "Blackwell에 설계 결함이 있었다. 기능은 했지만 이 결함으로 인해 수율이 낮아졌다"고 밝혔습니다. 또한 이 문제가 "100% Nvidia의 잘못"이라고 명확히 했다. TSMC와의 관계 일부 언론에서 TSMC와 Nvidia 사이에 긴장 관계가 있다고 보도했으나, 황 CEO는 이를 "가짜 뉴스"라고 일축했다. 오히려 TSMC가 수율 문제를 극복하고 Blackwell 생산을 .. 2025. 1. 19. NVIDIA의 Blackwell GPU 출시 지연 지난 주 내내 NVIDIA의 주가가 약세를 보이면서 미국 필라델피아 반도체 지수는 약세를 면하지 못했다. 이는 고용지표의 부정적 발표와 더불어 나스닥의 하락을 가져왔다. NVIDIA의 주가 약세는 주요 투자은행들의 빅테크들에 대한 AI 투자의 투자 회수에 대해 보수적인 시각을 견지하는 가운데, Blackwell GPU의 출시 지연 소식에 따라 촉발되었다. Blackwell GPU 출시 지연의 주요 원인은 다음과 같다.1. 마스크 문제로 인한 칩 수율 저하: NVIDIA CFO Colette Kress에 따르면, Blackwell GPU 마스크에 문제가 있어 생산 수율을 개선하기 위해 변경이 필요하게 됨2. 패키징 기술의 복잡성: Blackwell은 TSMC의 CoWoS-L(Chip-on-Wafer-o.. 2024. 9. 8. 젠슨황 엔비디아 GTC 2024 기조연설(Keynote Speech) 젠슨 황 CEO는 그의 상징과도 같은 검은 가죽 재킷을 입고 등장했다. 그는 “놀라운 일이 벌어지고 있다. 컴퓨팅의 근본적인 변화가 산업에 영향을 주고 있다”면서 2006년에 엔비디아가 제안한 쿠다(CUDA – Compute Unified Device Architecture)를 언급했다. 쿠다는 엔비디아가 그래픽 처리 과정의 효율화와 성능 향상을 고려해 개발한 명령어로 당시 페르미(Fermi) 설계에 기반한 지포스 GTX 400 시리즈 이상 그래픽카드에 적용되기 시작했다. 칩 안에 다수의 쿠다코어를 구성하고 데이터를 병렬로 처리해 성능을 높일 수 있었다. 이후 이 구조가 대규모 데이터 처리에 능하다는 것이 알려졌고 현재 인공지능 처리에 쓰일 정도로 발전했다. 쿠다와 컴퓨팅 산업 발전에 대해 언급한 젠슨 .. 2024. 3. 19. NVIDIA(엔비디아) GTC 2024 주요 관전 포인트 GTC 2024 행사 개요 오는 3월 18일부터 21일(미국 현지 기준)까지 세너제이 SAP 센터(미국 캘리포니아 소재)에서 GTC 2024가 개최된다. 엔비디아가 매년 진행하는 컨퍼런스로 그래픽 처리 관련 기술 외에 인공지능, 가속 컴퓨팅, 데이터 과학, 데이터 센터 등 다양한 분야를 다룬다. 5년 만에 대면 행사로 돌아온 이번 행사는 온오프라인 동시 참여가 가능한 하이브리드 형태로 진행된다. 생성 AI와 가속컴퓨팅, 로보틱스 등을 중심으로 항공우주·농업·자동차·운송·클라우드 서비스·금융 서비스·헬스케어·생명 과학·제조·유통·통신 등 산업 전반에 1000개 이상의 기업들이 참여할 예정이다. 특히 이번 행사에는 선도적인 AI 연구자들이 200개 이상의 세션에 참여한다. 이 중 ‘트랜스포밍 AI’는 젠슨 .. 2024. 3. 11. 엔비디아(NVIDIA) 아키텍처 로드맵 엔비디아는 2023년 10월 투자자 발표 슬라이드에서 "2024년 ~ 2025년의 차세대 '서버(데이터센터) GPU' 로드맵이 공개했다. ①-1. 서버(데이터센터) 'GPU' : x86 마이크로아키텍처 '훈련 & 추론' - 2021년 : A100 - 2023년 : H100 - 2024년 : H200, B100 - 2025년 : X100 ①-2. 서버(데이터센터) 'GPU' : x86 마이크로아키텍처 '엔터프라이즈 & 추론' - 2023년 : H100 - 2024년 : H200 → L40S / B100 → B40 - 2025년 : X100 → X40 ①-3. 서버(데이터센터) '슈퍼 반도체(ARM CPU + GPU)' : 'ARM-홀딩스' 마이크로아키텍처 '추론' → 2024년 : H200 ☞ GH200 .. 2024. 2. 26. 데이터 인프라 확장 수혜를 받는 프로세서 시장 AI 학습용 데이터센터 수혜는 프로세서에 집중 프로세서(Logic)는 컴퓨팅 시스템의 두뇌 역할을 하는 만큼 반도체 산업에서도 가장 기술 집약적이며 성능과 안정성, 호환성이 중요하다. 오랜 시간 쌓아올린 선도 업체들의 레퍼런스와 기술 개발에 막대한 비용과 시간이 소요된다는 점이 독과점적인 시장 구조를 만들었으며, 신규 업체들의 진입 장벽을 높이고 있다. 대규모 연산 속도가 중요한 AI 데이터센터 투자에서 대부분의 고객사들은 AI 컴퓨팅 성능의 극대화를 우선 순위로 두고 있다. 한정된 CapEx 안에서 학습용 데이터 인프라가 증설 수요의 대부분을 차지했던 2023년에는 GPU의 상대적 수혜가 강할 수밖에 없는 시장 환경이 이어졌다. 2024년 하반기부터는 온디바이스, 엣지서버 등에서 추론(Inference.. 2024. 2. 17. 이전 1 다음