AI 서버 1개에 25만불(약 3억원)
여기에 엔비디아의 최신 GPU H100이 8개 들어감(대충 2억 6천만원)
D램은 서버 1개에 2테라가 박힙니다 DDR5 128GB가 120불 160만원 입니다 그럼 D램만 2600만원
HBM은 더 비싸요(DDR5의 3~5배)
AI 컴퓨팅에서 제일 중요한 부분이 바로 메모리 병목 구간임. AI 연산에서 가장 중요한 게 메모리인데 시스템에서 원가 비중도
얼마 되지 않음. 그래서 앞으로는 메모리를 엄청나게 때려박는 방향으로 AI 컴퓨팅 시스템이 나아갈 것으로 생각함. CXL까지
적용되면 AI 서버 하나 당 수십 TB의 용량이 들어가는 건 그리 먼 미래가 아님
10테라만 잡아도 AI서버 하나에 D램으로 1억원 넘는 매출을 올림 이익률은 50%이상
"AI가 주도하는 메모리 슈퍼 사이클은 머지 않아 반드시 온다." 나는 이렇게 확신함.