엔비디아 AI 가속기 시장 독점 막을 기술, KAIST가 내놨다 (daum.net)
엔비디아 AI 가속기 시장 독점 막을 기술, KAIST가 내놨다
국내 연구진이 대규모 인공지능(AI)의 속도를 빠르게 높일 수 있는 그래픽저장장치(GPU) 기술을 개발했다. 이 기술은 메모리 용량을 확보하기 위해 값비싼 GPU를 많이 연결할 필요가 없어 대규모 AI
v.daum.net
엔비디아 AI 가속기 시장 독점 막을 기술, KAIST가 내놨다
KAIST, 차세대 연결 기술 적용한 GPU 개발
AI에 필요한 메모리 확장 비용 절감
정명수 한국과학기술원(KAIST) 전기및전자공학부 교수 연구팀이 설계하고, 국내 반도체 팹리스 스타트업 파네시아가 제작한 CXL-GPU./KAIST
국내 연구진이 대규모 인공지능(AI)의 속도를 빠르게 높일 수 있는 그래픽저장장치(GPU) 기술을 개발했다. 이 기술은 메모리 용량을 확보하기 위해 값비싼 GPU를 많이 연결할 필요가 없어 대규모 AI 모델을 구축하는 데 드는 비용을 줄일 것으로 기대된다.
정명수 한국과학기술원(KAIST) 전기및전자공학부 교수 연구팀은 차세대 기술인 ‘컴퓨트 익스프레스 링크(CXL)’가 활성화된 고용량 GPU의 메모리 읽기·쓰기 성능을 최적화하는 기술을 개발했다고 8일 밝혔다.
최근 대규모 AI 서비스는 모델과 데이터 크기가 점점 커져 수십 TB(테라바이트·1TB는 1조 바이트)의 메모리를 요구한다. 반면 최신 GPU 내부 메모리 용량은 수십 GB(기가바이트)에 불과해 여러 대를 연결하는 방식을 사용하고 있다. 이 방식을 이용하면 엔비디아가 개발한 최신 GPU ‘H100′은 하나에 4000만~5000만원에 달해 AI 모델 가격이 높아진다는 문제가 있다.
연구팀은 차세대 연결 기술인 CXL을 활용해 대용량 메모리를 GPU 장치에 직접 연결하는 ‘CXL-GPU’ 구조 기술을 개발했다. CXL로 메모리 확장 장치를 GPU 메모리 공간에 통합시켜 GPU를 이어 붙이지 않아도 메모리 용량을 높일 수 있는 기술이다. 다만 CXL-GPU 기술은 그동안 산업계에서 활발히 연구됐지만, 메모리 읽기·쓰기 성능이 떨어져 실제로 적용되기 어려웠다.
연구팀은 CXL-GPU 장치의 메모리 읽기·쓰기 성능이 저하되는 원인부터 찾았다. 기존 CXL-GPU는 확장 메모리 장치의 읽기·쓰기가 GPU의 성능을 따라가지 못한다는 것이 문제였다. 연구팀은 메모리 확장 장치가 연결된 GPU에서 신호를 받아 미리 메모리 읽기를 수행하고, 쓰기 타이밍을 스스로 결정하도록 설계했다.
설계된 CXL-GPU는 반도체 팹리스 스타트업 파네시아에서 시제품을 만들었다. 파네시아는 초고속 CXL 컨트롤러 기술을 자체 개발한 국내 기업이다. 연구팀이 CXL-GPU 시제품을 분석한 결과, 기존 GPU 메모리 확장 기술보다 2.36배 빠르게 AI 서비스를 실행했다. 메모리 용량을 늘리기 위해 더이상 GPU를 대량으로 연결할 필요가 없는 것이다.
연구팀은 개발한 CXL-GPU 기술이 엔비디아의 AI 가속기 시장 독점을 막을 것으로 기대했다. 정명수 교수는 “CXL-GPU로 대규모 AI 서비스를 운영하는 빅테크 기업의 메모리 확장 비용을 획기적으로 낮추는 데 기여할 수 있을 것”이라고 말했다.