김아름
👤 SpeakerVoice Profile Active
This person's voice can be automatically recognized across podcast episodes using AI voice matching.
Appearances Over Time
Podcast Appearances
내년부터는 또 흑자전환 가능성까지 거론되고 있고.
그리고 이제 스마트폰하고 가전 쪽은 폴더블과 플래그십 판매 덕분에 이 부분만 총 3조 5천억 원 영업이익이 지금 예상되고 있습니다.
방금 말씀하신 대로 AI 산업 구조가 지금 현재 완전히 바뀌고 있다고 볼 수 있습니다.
예전에는 컴퓨터나 스마트폰이 데이터를 저장하고 불러오는 정도였다면 지금은 AI가 문맥을 정리도 하고 기억도 하고 그 수많은 데이터를 동시에 불러와서 계산까지 해야 돼요.
AI가 이제 점차 많은 자료를 참고해야 되면서 한꺼번에 많은 범위의 내용을 보다 보니 또 거기에서 자료를 동시에 꺼낼 수 있어야 하고요.
이때 가장 중요한 게 바로 HBM하고 DRAM입니다.
그래서 메모리 수요가 단발적으로 증가한 게 아니라 구조적으로 폭발하고 있는 거죠.
특히 AI 서버 한 대에 들어가는 HBM 탑재량이 빠르게 늘고 있는데 서버 한 대당 디렘 용량도 과거보다 2배에서 3배 수준으로 올라가고 있습니다.
그리고 또 하나는 출원 시장이 확대되고 있는 것도 볼 수 있습니다.
과거에는 AI가 학습할 때만 메모리를 많이 썼다면 지금은 서비스 제공 과정에서도 메모리를 계속 사용하고 있어요.
그래서 실제 업계에서도 학습보다는 추론 단계에서 메모리 사용량이 증가한다고 보니까 사용자가 많아지면 많아질수록 메모리 부담도 급격히 커지고 있고 또 채 gpt든 이미지 생성이라든지 사용자가 많아지면 메모리 사용량이 거기에 비례해서 늘어나고 있는 거죠.
여기에다가 최근에 ai 경쟁 구도도 하나의 요인으로 보고 있습니다.
엔비디아나 구글 아마존 같은 기업들이 연달아서 더 큰 모델 더 긴 문맥의 길이 더 많은 사용자 수를 지금 발표하고 있는데요.
이런 모델 업그레이드가 계속 나올 때마다 메모리 탑재량이 늘어날 수밖에 없어요.
그러니까 단순히 수요가 늘었다 에서 끝나기보다는 없어서 못 파는 수준이라고 볼 수 있습니다.