경제뉴스 스크랩

[경제뉴스 스크랩] 4월 첫째 주 신문 스크랩

공부하는노아 2024. 4. 11. 09:44

24년 4월 2일(화)

 

 

 

 

NAND 메모리는 비휘발성 저장장치(HDD, SSD)이고, DRAM은 본체의 전원이 꺼지면, 보관하고 있던 데이터가 소멸하는 휘발성 저장장치.

AI의 성능개선 즉, 학습에 필요한 많은 데이터를 저장하기 위해서는 데이터센터의 저장소를 확충해야 한다.

IT기업들이 거대언어모델의 대규모 학습을 위해 GPU를 확보하기 위한 움직임이 엔비디아의 주가를 끌어올린 원동력이었고, 시장은 AI테마의 다음 수혜주로 NAND 메모리 기업들을 주목하고 있다 (삼전, SK하이닉스).

 

 

현재 반도체의 3대 수요처 중에서 가장 핵심이 될 것은 단연코 ‘서버’. 이미 성숙한 시장이라고 볼 수 있는 모바일과 PC는 고객들의 교체주기가 점점 늦춰지고 있어 파괴적인 성장률이 나오기 어려운 반면, 서버는 AI라는 새로운 흐름에 적응하기 위해 글로벌 기업에서 막대한 투자를 단행하고 있기 때문이다.

 

 

실제로 MS와 오픈AI는 최근 130조 원을 들여 데이터센터 구축을 추진하기로 밝혔고, 클라우드 기업인 아마존 또한 서버 확충을 위해 한화 약 200조 원의 투자 계획을 발표하였음. 클라우드 시장을 사실상 양분하고 있는 기업인 MS와 아마존의 저장소에 대한 대규모 투자 계획은 NAND 메모리 시장이 장기적으로 안정적인 수요처를 확보하였음을 의미함.

 

 

이 같은 전망에 힘입어 리서치 기관인 ‘트렌드포스’는 2Q24 낸드 가격이 QoQ 13~18% 상승할 것이라고 전망하였음. 특히, 엔터프라이즈(서버에 탑재되는) SSD 수요가 견고해 상승폭도 20~25%로 가장 높을 것이라고 전망하였음. GPU 수요가 증가함에 따라 최근까지는 DRAM 가격이 상승하는 추세였지만, 앞으로는 NAND 메모리(SSD)의 가격이 상승할 것으로 보임.

따라서, 삼성전자와 SK하이닉스의 NAND 메모리 Value Chain에 속한 국내 기업들에 관심을 가질 필요.

 

 

 

24년 4월 3일(수)

 

 

 

24년 4월 4일(목)

 

 

 

24년 4월 5일(금)

 

 

AI 시대가 요구하는 반도체 기술의 주안점은 Bandwidth(대역폭)의 확대에 있다. 각종 AI 서비스(자율주행, 원격의료, 언어모델 등)에 공통점이 있다면 지연이 발생해선 안 된다는 점이고, 이를 위한 솔루션은 결국 반도체의 속도 향상(Bandwidth의 확대)이다. 반도체 수요가 AI 중심으로 재편되고 있는 만큼 대역폭의 확대를 가져올 수 있는 솔루션과 기술(후공정 중심)의 가치는 앞으로도 높은 평가를 받을 것이다.

 

 

1) 모바일의 시대 (2010년대)

모바일 디바이스는 기본적으로 작고 얇은 형태를 띈다. Form Factor의 면적 자체에 한계가 있는 만큼 작게 만드는 기술(전공정의 미세화)이 모바일 시대에선 각광을 받아왔다. 이에, 미세화에 필수적인 솔루션으로 EUV가 부상했고, EUV 기술 역량을 유일하게 가지고 있는 ASML의 Valuation은 2021년 12m Fwd P/E 기준 50배 수준까지 상승했다.

 

 

2) AI의 시대, GDDR이 맞이한 한계

그간 GPU를 Support하기 위해 GDDR이 활용되어 왔고, GDDR은 행렬형 데이터를 빠르게 연산 및 처리하는 역할을 수행해 왔다. AI시대가 도래하며 GDDR은 기술의 한계에 봉착했고, HBM이 새로운 시대의 맞춤형 해결책으로 부상했다. GDDR은 감당해야 할 데이터의 양이 갑작스럽게 증가할 때, 순간적으로 Loading이 걸릴 Risk가 존재한다. 이러한 이유로 AI GPU 업계는 높은 제조 난이도로 인해 가격이 비싼 HBM을 선택하였다. 더 빠른 데이터의 연산 및 안정적인 처리를 위해 대역폭을 확대하려는 시도는 이어질 것이고, 이를 기반으로 HBM은 AI 시대 GPU의 필수품으로 장기간 자리매김할 것이다.

 

 

2023년 HBM과 AI GPU의 공통점이 있다면, 공급이 수요를 따라오지 못했다는 점이다. 이러한 수급의 불균형은 2024년에 들어서며 점진적으로 완화되고 있는 것으로 보인다. 시장 리더십 확보를 위한 HBM 공급 업계의 경쟁은 2024년 들어 격화되고 있다. 그 이유는 시장의 초기 단계인 만큼, DRAM에 비해 높은 가격에 판매할 수 있기 때문이다. 4Q23 기준 HBM의 판가는 범용 DRAM보다 5배 이상 높은 가격에 판매되었다. 이에 HBM의 마진은 업체별로 차이는 있으나, 최대 50~60%의 OPM이 창출 가능한 것으로 추정된다.

 

 

큰 이변이 없다면, 2024년 AI 수요는 강할 것으로 예상된다. AI의 특징은 수요의 한계치가 없다는 점이다. 서버, 모바일 디바이스와 같은 하드웨어를 넘어 공장 자동화, 자율주행 등 여러 영역에서 사용될 수 있으며, 관련 기술은 빠르게 발전하고 있다. 그렇다면, Tech 기업들은 미래 경쟁력 확보 차원에서 AI에 대한 투자를 쉽게 줄일 수 없을 것이다. 큰 이변이 없다면, 작년에 시작된 AI 열풍은 쉽게 꺼지지 않을 것이다. 이에 AI GPU 시장을 독점하고 있는 Nvidia의 신제품 출시 시점은 기존 예상 대비 빨라지고 있다. 2Q24 H200 출시(HBM3e 탑재)를 시작으로 2H24내 B100이 출시될 전망이고, 신제품의 경우, HBM 탑재량이 기존 H100 대비 1.8~2.4배 많다. 고성능의 HBM 메모리를 점점 더 많이 탑재하게 되는 이 같은 상황은 삼성전자와 SK하이닉스에게 매우 고무적이다.

 

 

24년 4월 6일(토)

 

 

시장은 테슬라의 미래를 늘 과도하게 비관적으로 전망하는 것처럼 보인다. 개인적으로, 나는 스타벅스에 대해 매우 긍정적인 관점을 유지하고 있다. FSD를 글로벌 이용자들에게 1달간 무료로 공개한 이후, 테슬라가 보유한 주행 Data는 누적 10억 마일을 넘겼다. 현실 세계에서 10억 마일의 Road Data를 보유한 기업은 테슬라 외에 전무하다.

 

 

당사는 AI가 학습할 수 있는 막대한 규모의 Real World 데이터를 축적하였고, 이는 Nvidia가 새롭게 출시한 자율주행 솔루션과 테슬라의 가장 큰 차이점이다. 테슬라는 FSD를 Ver.12로 업그레이드하며 자율주행 알고리즘을 완전히 개선했다. Ver.12 이전의 FSD는 엔지니어가 입력한 코드를 기반으로만 작동할 수 있었다. 이에 예기치 못한 상황을 마주했을 때 테슬라의 자율주행 기능은 바보가 되곤 했다. 하지만, Ver.12 이후로 당사의 FSD는 AI가 실시간으로 상황을 분석하며 실시간으로 판단을 내리고 있다.

 

 

FSD 구독자들은 큰 만족감을 드러내고 있다. FSD 구독자가 증가하며 AI가 습득하는 Data가 증가할수록 당사의 자율주행 솔루션은 레벨 4 수준의 주행성능에 도달하기까지 소요될 시간이 급감할 것이다. 레벨 4 수준의 자율주행 성능을 달성하는데 성공한다면, 당사는 로보택시 서비스를 비롯하여 각종 육상 물류 서비스를 제공하는 기업으로 재평가될 것이다. AI 반도체의 획기적인 성능 개선과 대량의 Real world data의 확보, 전기차 인프라의 빠른 확대 등 테슬라의 미래는 시장이 바라보는 것만큼 어둡지는 않다.

728x90
반응형