“기존 엔비디아의 서버 구조만으로는 대규모 인공지능(AI) 서비스 수요에 대응하기 어려워졌습니다. 이제 고성능 연산을 위해서는 그래픽처리장치(GPU)와 메모리 반도체 등을 효율적으로 연결하고 활용하는 ‘반도체 연결’이 중요해졌죠.”
과학기술정보통신부가 주최하고 한국연구재단과 서울경제신문이 공동 주관하는 ‘대한민국 과학기술인상’ 1월 수상자로 선정된 정명수 파네시아 대표 겸 한국과학기술원(KAIST) 전기및전자공학부 교수는 7일 독자 기술 ‘컴퓨트익스프레스링크(CXL) 기반 모듈형 AI 데이터센터 아키텍처’를 앞세워 전 세계적인 AI 수요 급증에 대응한 데이터센터 성능 경쟁에서 주도권을 확보하겠다는 포부를 밝혔다. 정 대표가 창업한 파네시아는 해당 기술로 세계 최대 가전·정보기술(IT) 전시회 ‘소비자가전쇼(CES)’에서 지난해 혁신상을 받은 데 이어 6일(현지 시간) 개막한 올해 행사에도 참가해 최신 기술 ‘CXL 3.2 패브릭 스위치’를 선보이고 고객사 대상 상용화를 추진하고 있다.
GPU는 AI 모델을 구동하기 위한 핵심 연산 기능을 수행하지만 이를 위해서는 방대한 데이터를 보관하고 필요할 때 가져다쓸 수 있는 메모리도 필수적이다. 작업자(GPU)가 아무리 똑똑해도 서류를 잘 쌓아둘 책상(메모리)이 없다면 제대로 일할 수 없는 것과 비슷한 이치다. 이에 GPU 스스로도 자체 메모리를 갖췄지만 그 용량이 통상 수십GB(기가바이트)인 반면 최신 대규모언어모델(LLM)을 돌리는 데 필요한 메모리 용량은 TB(테라바이트·1000GB) 수준이라 GPU만으로 AI 데이터센터를 구성하는 데 한계가 있는 실정이다. 엔비디아가 자사 GPU를 SK하이닉스·삼성전자의 고대역폭메모리(HBM)와 결합한 AI 가속기, 여러 GPU를 연결하는 ‘NV링크’ 등 신기술로 대응하는 가운데 CXL이 또다른 대안으로 떠올랐다.
CXL은 GPU와 메모리가 빠르게 데이터를 주고받을 수 있는 연결장치, 즉 일종의 ‘데이터 고속도로’다. 이를 통해 GPU에 필요한 만큼 추가 메모리를 붙여 용량 부족을 해결할 수 있다. 기존에도 GPU에 메모리를 추가하자는 아이디어가 있었지만 GPU와 추가 메모리 간 통신 속도가 제한돼 필요한 데이터를 제때 주고받지 못하는 병목 현상이 발목을 잡았다. GPU와 메모리 간 통신 속도를 높여 병목을 잡을 CXL 개발 경쟁이 시작된 가운데 파네시아는 2024년 통신 지연시간을 수십 나노초(10억 분의 1초)로 단축하며 경쟁 기술 대비 3배 이상 빠른 속도를 달성했다. 이를 HBM과 NV링크까지 통합해 GPU, 메모리, 중앙처리장치(CPU)를 필요에 따라 자유롭게 조합해 데이터센터를 만들 수 있는 모듈형 AI 데이터센터 솔루션을 발전시켰다. 최신 기술인 CXL 3.2 패브릭 스위치는 CES 2026에서 전시되고 협력사 대상 샘플 칩 배포를 통해 양산 가능성을 검증받고 있다.
정 대표는 “엔비디아 서버 구조는 (GPU와 메모리 등) 장치 비율이 고정돼 있어 응용 특성에 맞춘 자원 활용에 한계가 있었다”며 “이에 기존에는 GPU 메모리가 부족하면 값비싼 GPU를 추가로 구매해야 했지만 (우리 기술로는) 필요한 메모리만 추가로 연결함으로써 비용을 절감할 수 있다”고 설명했다. 그는 “최신 하이퍼스케일(초대형) 데이터센터는 GPU 수백만 개 규모, 축구장 수천개 면적에 달한다”며 “대규모 AI 응용 환경에서는 각 장치의 개별 성능뿐 아니라 이들을 얼마나 효율적으로 연결하고 활용할 수 있는지가 점점 더 중요해지고 있다”고 강조했다.
