커뮤니티
스포츠
토론장


HOME > 커뮤니티 > 이슈 게시판
 
작성일 : 23-05-09 01:38
AI의 장기적인 수혜는 디램이 가장 크게 입는다고 생각함
 글쓴이 : 강남토박이
조회 : 1,218  

qqqqqq.jpg

qqqqqqq.jpg


경계현 삼성전자 DS부문장(사장)은 4일 대전 유성구 카이스트(KAIST)에서 '꿈과 행복의 삼성반도체: 지속가능한 미래'란 주제로 진행된 강연에서 "삼성전자종합기술원에서 2028년까지 메모리가 중심이 되는 슈퍼컴을 만들어보려고 한다"고 말했다. 이번 강연은 카이스트 학생들에게 삼성전자 내에서 반도체를 담당하는 DS부문을 소개하고 우수한 인재를 모집하기 위해 마련됐다.

경 사장은 "챗GPT 같은 생성형 인공지능(AI) 대부분이 엔비디아의 그래픽처리장치(GPU)를 쓰는데, 저는 GPU가 (챗GPT에서) 엄청 바쁘게 일할 줄 알았는데 대부분 놀고 있다더라"며 "왜 그러냐면 메모리에서 데이터가 와야 GPU가 뭔가를 할 텐데 지금은 GPU가 아니라 메모리에 한계가 있다고 하더라"고 말했다. 그는 이어 "국내에서 슈퍼컴퓨터를 직접 아키텍처링해보고 하드웨어와 소프트웨어를 꾸며본 사람이 없다"며 "그래서 지금은 미국에 중심을 두고 미국에서 사람들을 고용해 일을 할 텐데 이 분야에 여기 있는 학생들도 오면 참여할 수 있지 않을까 생각한다"고 말했다. (이하 중략)


경계현 사장님이 말씀하셨듯 AI에서의 메모리 병목 구간을 해결하기 위해서는 더더욱 많은 고성능의 디램이 필수적임. 그래서 옴디아 리포트에서도 "DRAM 시장이 향후 큰 규모의 워크로드를 발생시키는 AI의 발전으로 가장 큰 수혜를 받을 산업"이라고 한 것임.
출처 : 해외 네티즌 반응 - 가생이닷컴https://www.gasengi.com




가생이닷컴 운영원칙
알림:공격적인 댓글이나 욕설, 인종차별적인 글, 무분별한 특정국가 비난글등 절대 삼가 바랍니다.
이름없는자 23-05-09 07:06
   
하지만 DRAM 등 메모리가 인공지능 서버에서 차지하는 가치 비중은 불과 몇% 도 안됨.
즉 100 만 달러 짜리 인공지능 서버를 팔아봐야 메모리 회사가 가져가는 돈은
 2-3만 달러 정도 밖에 안됨.
왜냐면 그런 서버를 차별화하는 것은 메모리가 아니라 처리장치와 소프트웨어 이고
메모리는 그냥 업계의 누구나 만들어서 공급할 수 있는 일반상품이니까.
HBM 은 하이닉스 삼성 마이크론 모두 제조 가능함.

물론 HBM 은 현존 최고의 성능이고 일반 DRAM 보다 몇배나 되고 매우매우 비싸지만
인공지능 서버가 노트북이나 스맛폰 처럼 연간 수 억 대가 팔리는 것도 아니고
전세계적으로 연간 수천 대에 불과할 텐데 거기 들어가는 HBM 값의 연간 총 합계는
삼성전자 가 1시간동안에 버는 돈보다 더 적을 것임.

비싼 200-300만원 초고성능 게이밍 노트북에 들어가는 메모리 값은 불과 4-5 만원 어치 밖에 안됨
대부분의 부가가치는 인텔 AMD 엔비디아들이 다 가져감. 한국 메모리 회사는 푼돈을 벌 뿐이고.
이미 가전제품이 된 컴퓨터도 그런데 하물며 초고가의 최신 인공지능 서버에서
메모리 가치의 비중은 1% 도 안될 것임.

믈론 그거도 없는 거 보다는 낫지만 메모리 값보다 그 인공지능 장치의
외부 케이스나 냉각장치 등이 더 많은 비용이 들 것이고
그 인공지능 서버를 제작사에서 고객사에 배달하기 위해
운반하고 설치하는데 더 많은 부가가치가 나올 것임.

마치 자동차가 잘팔리면 당연히 타이어나 가죽시트 의자 회사도
돈 벌겠지만 타이어 회사면 누구나 만들 수 있는 타이어는
자동차 전체 가격에 비하면 미미한 비중에 불과함.
     
ficialmist 23-05-09 11:47
   
현재 AI관련으로 뭔가를 해보는 일반인 수준에서 제일 부족함을 느끼는 영역은 GPU 성능 같은 영역이 아니라
GPU메모리 용량의 영역임

엔비디아 같은데서 하이엔드 제품에만 24기가 GDDR6 메모리를 제공하고, 그 이상 메모리 제품은 천단위로 가격이 올라감

24기가면 충분할것 같지만 아주 제한된 설정으로 AI관련 처리를 돌릴수 있는 부족한 용량임

따라서 유저들 입장에서는 이 비디오 메모리 용량부분에서 빨리 변화가 오길 바라고
추후 비디오카드 스팩에 48기가 96기가 모델 같은것도 가능할것 같은데
그때되면 메모리 초호황이 올것임
          
이름없는자 23-05-09 19:21
   
인공지능 칩 가격이 1 개당 2만-4만 달러임. 거기에 넉넉하게 한 초고성능 HBM 칩
32-64G 단다고 쳐도 1000달러도 안됨.  즉 인공지능 칩 가격의 3-5% 가량.
게다가 이건 순수한 칩 가격이고 전체 시스템 가격 HBM 메모리 가격이
차지하는 비중은 1-2% 밖에 안됨. 이건 자동차 값에서 타이어 값 비중도 안되는 것.

이건 대량으로 판매중인 그래픽 카드도 마찬가지
1600 달러 짜리 그래픽 카드에서 GDDR6 RAM 의 값은 300 달러 정도라고 함.
그런데도 메모리 회사의 매출액 중에서 그래픽 카드 용 GDDR 메모리의
매출액은 일반 DRAM 에 비하면 미미한 비중 밖에 안됨.

그래픽 카드 같이 대량 생산 판매중인 대중적 응용도 RAM 매출액이 미미한데
하물며 아직 일부기업이나 쓰는 인공지능 칩용의 RAM 매출액은 완전히 무시할만한 액수임.
그러니 인공지능 시장 전체 규모에서 RAM 시장규모의 비율은 완전히 무시할만한
수준에 불과함.
               
ficialmist 23-05-09 20:11
   
이 아저씨 내말을 안보셨네
그걸 지금까지 엔비디아 같은 업체에서 용량을 제한하고 있었는데
그게 지금의 2배 4배 이상 필요로 하는 시대가 오고 있어서
300 달러만 들어갔으면 되었을 비디오 메모리가 2배 4배가 들어가면 600, 1200 달러 어치가 들어간다는 말입니다
그렇게 수요가 폭발하면 가격은 당연히 오르고 600, 1200 달러가 아니라 더 비싸겠죠

그리고 자꾸 이상한 가격타령을 하시는데
클라우드 서버 폭발 시기에 삼성과 하이닉스가 얼마나 메모리 대호황을 누렸는데
그 클라우드 서버에서도 CPU 가 제일비싸고 하드디스크가 제일 많이 들어가지만
가격 비중이 안높은 왜 메모리가 미친듯이 돈을 번것 같습니까?
                    
이름없는자 23-05-10 00:25
   
아 자동차 많이 팔리면 타이어도 많이 팔릴 테니 당연히 수혜는 입겠지요.
하지만 그 자동차가 대중용 승용차나 스포츠 유틸리티가 아니라
군대 장갑차 같은 차라면?
장갑차 한 대에 10억- 30억 씩 하는데 그런 장갑차가 1천대 팔리면 엄청난게 많이 팔린 건데
(3조원 대 규모)
거기에 바퀴가 6개-8 개 들어간다고 해도 장갑차 바퀴 하나에 100만원에
납품한다고 (보통 자동차  바퀴는 개당 10-20만원대) 해도
장갑차 한 대당 600-800만원 이고 1000대 해봐야 80억 밖에 더 되는냐고.
한국타이어 (주) 매출액이 1년에 8조원인데  연간 80억 원이 면 0.1 % 에 불과함.
즉 국내에 3조원대 장갑차 시장이 생겨도 매출액 0.1% 증가할 뿐임.

그러니 인공지능 흥한다고 삼전 주식 오를 거란 건
국방부가 장갑차 1천대를 발주했다고 한국타이어 주식이 오를 거란 식 이란 거지.

데이터 센터 서버는 다르지...  인텔의 이익의 절반 이상이 서버 시장에서
나올 정도로 규모가 크고  지금 메모리 수요의 절반 이상이 서버에서 나오는데...
과연 인공지능 서버가 지금 웹 서버 같은 규모로 성장할까?

아주 낙관적으로 봐서 세계적으로 1천억 달러 짜리 거대한 인공지능 시장이 생겨도
메모리 시장은 최대 10억 달러 정도 밖게 안늘어남.
삼성 1년 메모리 매출액이 500억 달러는 될텐데
매출 10억 달러 늘어난다고 얼마나 더 수익이 증가할가?
영업이익률 50% 쳐도 결국 5억 달러 정도 순익이 증가할 뿐임.
                         
강남토박이 23-05-10 01:22
   
HBM 시장 2026년 기준 3조 전망입니다. 이것도 보수적으로 잡은 전망치임

당장 지금 hbm이 ddr5 d램보다 5배 넘는 가격으로 거래중이고 hbm 탑재 용량이 어마무시하게 증가 합니다. 고성능 d램도 자율주행 전기차에 많이 탑재됨

차량용 d램 시장 2026년 작년보다 2배 더 커진 8조원
                         
강남토박이 23-05-10 01:27
   
16년까지만 하더라도 메모리 수요의 거의 절반이 모바일, 그리고 30%가 PC였음. 서버 비중은 매우 낮았음. 그런 상황에서 16년 말부터 지금까지 비주류 시장에 불과했던 서버용 메모리 수요가 갑자기 급증하네? 삼전 모바일, 애플, 화웨이 이런 곳이 아니라 갑자기 아마존, 구글, 마이크로소프트 이런 빅테크 업체들에서 메모리 주문을 대량으로 넣기 시작하니 회사 관계자들 모두 당황했었음. "아니, 이거 뭐지? 이거 진짜야?" 이렇게 긴가민가 했었는데 그게 바로 서버가 이끌었던 메모리 슈퍼 사이클의 시작이었지. 그리고 작년부터 이제 서버는 모바일을 제치고 메모리 최대 수요 시장이 되었음. 16년으로 되돌아간다면 정말로 상상도 못할 일임.

16년 초에 알파고와 이세돌의 바둑 대결 '구글 딥마인드 챌린지 매치'가 있었고, 그때 우리 모두 충격을 받긴 했지만 그게 진짜 서버용 메모리 수요 폭발의 시.발점이라고는 전혀 생각하지 못했음. 지금이야 그때가 변곡점이었다는 것을 알지 당시에는 알기 힘듬. 원래 역사에서 중요한 변곡점은 그렇게 옴. 나는 (아직은 객관적인 근거는 빈약한 뇌피셜이긴 하지만) 지금 목격하는 챗GPT 혁명에서도 16년 당시 구글 딥마인드 챌린지 매치가 주었던 충격의 데자뷰를 느낌. 아직까지는 나도 여기에 객관적인 확신은 없음. 나도 솔직히 정확히는 잘 모름. 그런데 느낌이 그럼. 상황이 너무 비슷하거든요.

그렇게 보면 17~18년 메모리 슈퍼 사이클은 SSD가 HDD를 대체하는 변곡점의 낸드 수요가 이끈 게 큼. 스토리지를 HDD에서 SSD로 대체하면 컴퓨팅 속도가 비교할 수 없을 만큼 빨라지거든. 그때는 컴퓨팅 구조(폰 노이만 구조)의 가장 심한 병목 구간이 바로 스토리지였음. 그리고 그것을 가능하게 한 게 2D에서 3D로의 낸드 구조 전환임. 그런데 지금은 AI 연산 가속기(CPU, GPU, NPU 등)에서 연산 성능 개선을 저해하는 가장 큰 요인이 바로 메모리(디램)과의 병목 구간임. 스토리지는 메모리만큼 중요하지는 않음.

그래서 일반 범용 서버 디램 모듈을 CXL, 더 나아가 HBM으로 바꿔서 AI 연산 가속기와의 채널 버스(대역폭이 도로의 제한 속도라면 채널 버스는 차선 개수의 개념)를 크게 늘려야만 이 병목 구간을 해소할 수 있음. PIM도 이 병목 구간 때문에 연산 기능 일부를 떼내어 메모리로 옮기는 것임. 결국 CXL, HBM, PIM의 목적은 모두 동일함. 바로 '메모리 벽'을 해소하는 것임. 내가 다른 건 모르겠어도 AI 연산을 위해서는 디램 메모리가 가장 중요하다고 확신함. 만약에 AI가 이끌어 갈 메모리 호황이 진짜라면 그 핵심에는 디램, 특히 CXL과 (가장 중요한) HBM이 있을 것이라고 확신함.

또 내가 지금 업계 돌아가는 것을 보니 옴디아가 전망하는 것(올해 서버용 디램의 3% 수준)보다 실제 시장의 HBM 수요가 훨씬 더 강한 것 같음. 그래서 특히 현재 HBM 시장의 거의 7~80%를 장악한 하이닉스는 옴디아가 예상하는 것보다 HBM 매출 비중이 훨씬 더 높을 것 같다고 생각함. 옴디아에서 예측하는 대로 AI 발전으로 24년부터 메모리 반도체 시장이 회복에 들어가서 25년부터는 다시금 강력한 호황 사이클이 올 지는 한번 지켜봐야겠지. 희망회로 좀 섞어서 나는 그렇게 될 가능성이 결코 적지 않다고 믿음.
                         
이름없는자 23-05-10 06:53
   
자동차 자율주행 시장이 크지만 그것도 여전히 AI 프로세서가 원가의 대부분을
차지할 뿐이고 메모리의 원가 비중은 여전히 몇% 를 넘지 못함.
대중적인 응용에는 원가 구성상 여전히 대중적인 메모리를 쓸 수 밖에 없음.
3 만달러 짜리 자동차에 자동주행 장치는 3천달러 짜리 저성능 AI 프로세서를 써야 하고
그런 저성능 응용에서 메모리 가격은 100달러를 넘을 수 없음. 3천달러 짜리 자동주행장치에 수천 만달러 짜리 chatGPT 서버 에 들어가는 수십 만 달러 어치의 고성능 메모리를 쓸 수 있는 게 아님. 즉 여전히 자동차에 들어가는 인공지능 메모리는 자동차 가격의 1% 에 미치지 못할 것임.
즉 자동차의 인공지능 자동주행 장치의 시장규모는 100억 달러 정도에 불과 할 것이고 그 중에서 메모리 비중은 수억 달러에 불과 할 것임. 그정도면 현재 그래픽 카드 시장 정도 밖에 안됨. 그래픽 카드 시장이 2배로 확대 된다고 메모리 회사가 떼돈 버는 거 아님.
     
강남토박이 23-05-10 08:11
   
전기차의 궁극적인 지향점인 자율주행차는 결국 '바퀴 달린 슈퍼컴퓨터' 현재 판매 중인 전기차의 자유주행 Level은 1~2단계 수준에 불과한데, 자율주행 Level이 한 단계씩 올라갈 때마다 필요한 컴퓨팅 파워는 100배씩 증가함. 결국 자율주행 Level 4~5단계에 접어들면 엣지 컴퓨팅이건 클라우드 컴퓨팅이건 정말로 슈퍼 컴퓨터급 컴퓨팅 파워가 필요해지게 됨. 예컨대 엣지 컴퓨팅(중앙 서버가 아니라 차량 자체의 AI 처리를 바탕으로 자율주행을 수행함) 기반 자율주행차라고 하면 개별 차량에 엔비디아 A100, H100 GPU가 탑재되어야만 하고, 이를 위해서는 디램과 낸드 모두 천문학적인 용량이 탑재되어야만 함. 그래서 자율주행차를 '바퀴 달린 슈퍼컴퓨터'라고 표현하는 것임.

내가 자율주행용 HPC로 GPU를 예시로 들긴 했는데, 이건 글의 이해를 돕기 위한 Naive한 예시일 뿐 사실 자율주행용 HPC는 절대 GPU가 될 수 없다고 생각함. 왜냐하면 GPU는 전력 소비가 너무나도 극심하기 때문임. MS 챗GPT 운영 비용이 일 70만 불(10억 원) 정도로 추정되는데, 그 대부분이 전기료임. Core 개수를 무식하게 늘려 나가는 GPU는 결국 최신 모델일수록 무조건 전기를 더 많이 쓸 수밖에 없거든. 전기 먹는 괴물인데도 엔비디아 GPU가 불티나게 팔리는 이유는 특히 검색엔진 시장에서 점유율 경쟁에 엄청나게 큰 돈이 걸려 있기 때문임. MS 컨콜에 따르면 검색엔진 시장점유율 1% 당 매출 20억 불이 왔다갔다 한다는데, 그깟 전기료 좀 더 나간다고 퍼포먼스가 압도적인 엔비디아 GPU 안 쓰겠음?

그런데 전기차는 다름. 전기차에서 가장 소중한 자원이 바로 전력임. 그리고 리튬 전지의 발전 속도는 반도체에 비하면 터무니없이 느림. 따라서 전기 퍼먹는 GPU는 절대 자율주행차 엣지 컴퓨팅용 HPC가 될 수 없다고 생각함. 그래서 필요한 게 테슬라가 현재 개발하는 것처럼 자율주행용 맞춤형 ASIC임. 앞으로 전기차 시장은 ASIC을 설계하고 개발할 수 있는 팹리스 역량을 매우 크게 요구할 것이고, 바로 거기에서 기업의 경쟁력 격차가 크게 벌어질 것이라고 생각함. 그리고 이 와중에 파운드리와 메모리 반도체는 계속 꿀을 빨 것임. 무슨 HPC를 탑재하건 파운드리 선단공정으로 제작해야 하는 건 똑같고, 또 HBM 같은 초고성능 메모리가 들어가야 하는 것 역시 똑같거든요. 단순히 클럭만 높인 GDDR에 비해 HBM은 채널 버스를 크게 늘려서 전력 Save 역시 압도적이라 자율주행차에도 필수적인 메모리가 될 것이라고 확신함.
          
이름없는자 23-05-10 08:31
   
그렇다고 해도 결국 그 자율주행 인공지능 장치나 메모리를 사주고 댓가를 지불한
최종 사용자는 자동차를 사는 소비자이고 그런 인공지능 자동차에 소비자가 지불할
용의가 있는 가격은 테슬라 모델 3 가격인 5-6천만원에 불과함.
자율주행 전기차라고 2억원 이나 3억 주고 살 수 있는 사람은 극소수.
 
자동차의 가격 중에서 인공지능 장치 가격 비중이나 그 장치중 메모리 원가로 쓸 수 있는지
생각해보면 자율주행 장치 원가는 차값의 10% 를 넘지 못할 것이고
그 자율주행 장치 중에서 메모리 가격은 끽해야 10% 일 거고
그러니 결국 차값의 1% 정도가 메모리 회사의 매출액이 될 것임.

예를 들어 테슬라 사면서 옵션으로 600만원을 더 지불하면 자율주행을 할 수 있다고
하면 많은 사람들은 그냥 그거 빼고 자율주행 없는 깡통 테슬라 차를 살 것임.
그러니 아무리 자율주행이 성능이 좋아져도 1천만원이 넘는  자율주행 장치를
소비자에게 팔 수 있는 게 아님.

그러니 결국 사용자들이 지불의사가 있는 자율주행 장치의 가격은 수백만원으로 제한되고
그러면 메모리도 결국 수십 만원 어치 이상 쓸 수가 없음.
즉 6천만원 짜리 테슬라 차 한 대 팔릴 때 마다 삼전은 메모리 값으로  끽해야
수십만원 정도의 추가 매출을 더 올리는데 그치게 될 것임.
그것도 아주 후하게 봐줘서 이지 전기차나 자율주행장치 원가에서
메모리 가격의 비중은 게이밍 노트북에서 메모리 가격 비중보다 낮을 것임.

그정도면 고급 게이밍 PC 나 그래픽 카드 하나 팔 때마다 삼성이 버는 돈과
큰 차이가 있는 게 아님. 현재 500만원 짜리 최고급 PC나 3백만원 짜리
그래픽 카드 하나 팔아봐야 하이닉스나 마이크론이 파는
메모리 값은 20-40 만원에 불과 함.

이런 식의 추론은 다른 인공지능 장치 나 로봇 등에도 적용됨.
인간 알바 한명을 대체 할 수 있는 로봇은 결국 알바 임금인
월 리스 비용이 월 200만원 정도의 로봇 이상은 팔릴 수가 없고
당연히 거기 들어가는 인공지능 장치나 메모리의 값을
제한이 될 수 밖에 없음.
인간과 똑같은 사고 인지 작업 능력을 가진 초인공지능 로봇이라고  우주개발이나
원자로 작업 같은 특수한 용도 이외에는 10억원에 팔 수 있는게 아님