
인공지능(AI) 개발이 학습에서 추론 중심으로 재편되면서 반도체 시장에서 중앙처리장치(CPU)를 향한 관심이 뜨겁다. 지난해까지만 해도 대규모언어모델(LLM) 학습용 그래픽처리장치(GPU)가 스포트라이트를 한몸에 받았지만 추론 기반 에이전틱 AI(스스로 판단하고 작업을 수행하는 모델) 시대에는 CPU 성능이 승부처이기 때문이다. ‘컴퓨터 두뇌’라는 수식어가 무색할 정도로 수년 간 GPU 앞에서 기를 펴지 못했던 CPU가 AI 서버 사령관으로서의 위상을 되찾았다는 평가가 나온다.
오픈AI의 AI 챗봇 챗GPT가 등장하면서 하이퍼스케일러(거대 데이터센터 운영사)는 폭발적인 AI 수요를 충족하기 위해 GPU 확보에 매달렸다. 게임 그래픽카드로만 쓰이는 줄 알았던 GPU가 병렬 연산에 뛰어나다는 점이 주목받으면서 데이터센터에 대량의 GPU를 설치하고 동시다발적이고 반복적인 기계학습을 시켰다. 오픈AI·앤스로픽이 AI 모델 개발에 매달리고 구글·아마존·오라클·메타 등이 데이터센터 확장에 나서면서 GPU 수요는 폭증했고 모든 관심은 GPU에 집중됐다.
해당 게시물에 음란물(아동 포함), 도박,광고가 있거나 바이러스, 사기파일이 첨부된 경우에 하단의 신고를 클릭해주세요.
단, 정상적인 게시물을 신고할 시 사이트 이용에 불이익을 받으실 수 있습니다.
yang120 님의 최근 커뮤니티 글.