차세대 슈퍼칩 ‘베라 루빈(Vera Rubin)’과 초대규모 이더넷 ‘스펙트럼-XGS(Spectrum-XGS)’로 데이터센터를 ‘AI 기가팩토리’로 전환하려는 엔비디아의 비전이 공개됐다.

엔비디아는 이번 주 오픈컴퓨트프로젝트(Open Compute Project, 이하 OCP) 회원사를 위한 글로벌 서밋의 중심 무대에 선다. 이번 행사를 통해 엔비디아는 ‘그리드 투 칩(Grid-to-Chip)’ 철학을 강조하며, AI 인프라의 새로운 방향을 제시한다.
엔비디아는 이번 행사에서 여러 주요 발표를 예고했다. CPU와 GPU를 융합한 차세대 아키텍처 ‘베라 루빈 MGX(Vera Rubin MGX)’의 공개와 함께, 초대규모 ‘기가 스케일(giga-scale)’ AI 팩토리를 위한 네트워크 패브릭 ‘스펙트럼-XGS 이더넷(Spectrum-XGS Ethernet)’을 선보일 예정이다.
이 움직임은 엔비디아가 AI 기술 스택 전반의 ‘연결 조직’으로 자리매김하려는 전략의 일환이다. 칩과 네트워킹, 데이터센터 인프라, 소프트웨어 오케스트레이션에 이르기까지 AI 생태계의 모든 계층에 엔비디아의 기술을 깊이 통합하려는 의도다.
엔비디아의 제품 마케팅 시니어 매니저 조 델라에르는 행사에 앞서 “데이터센터는 지금 ‘기가 스케일’로 진화하고 있다”라며 “지능을 생산하는 AI 팩토리는 수익을 창출하지만, 그 수익을 극대화하기 위해서는 네트워킹, 컴퓨팅, 기계적 설계, 전력, 냉각 시스템이 하나의 통합된 구조로 설계되어야 한다”라고 설명했다.
베라 루빈 인프라의 사양
엔비디아는 이번 행사에서 차세대 오픈 아키텍처 랙 서버 ‘베라 루빈 NVL144 MGX 세대’의 세부 사양을 공개할 예정이다. 다만, 해당 서버의 실제 출시는 2026년 말로 예상된다.
베라 루빈 칩 아키텍처는 엔비디아의 블랙웰을 잇는 후속 모델로, ‘대규모 문맥’ 처리를 위해 설계됐다. 이는 기업이 AI 프로젝트를 시장에 훨씬 빠르게 출시할 수 있도록 돕는 것이 목표다.
베라 루빈 MGX는 엔비디아의 베라(Vera) CPU와 루빈 CPX GPU를 하나의 시스템에 결합하며, 기존 블랙웰과 동일한 오픈 MGX 랙 폼팩터를 기반으로 한다. 이를 통해 다양한 구성과 통합 방식을 유연하게 지원한다.
델라에르는 “MGX는 모듈형 빌딩 블록을 기반으로 한 유연한 서버 및 랙 설계 접근 방식”이라며 “이를 통해 엔비디아 생태계는 다양한 구성을 빠르게 제작할 수 있다”라고 설명했다.
그는 또, 베라 루빈 MGX가 특정 연산 작업에서 기존 GB300 대비 약 8배의 성능 향상을 제공한다고 덧붙였다. 이 아키텍처는 액체 냉각 방식을 채택하고 케이블 없는 구조로 설계돼 조립 및 유지보수 효율을 높였다. 엔비디아는 운영자가 CPU, GPU, 스토리지 등 핵심 구성 요소를 자유롭게 조합해 상호운용성을 보장받을 수 있다고 밝혔다.
컨설팅 기업 무어인사이츠앤드스트래티지(Moor Insights & Strategy)의 데이터센터 수석 애널리스트 맷 킴벌은 MGX 트레이 설계의 모듈성과 간결성을 높이 평가했다.
그는 “이 설계는 제조 공정을 대폭 단순화한다”며 “수만 개, 심지어 수십만 개의 랙을 운영하는 기업의 경우, 이 설계는 운영 효율성을 크게 높여 시간과 비용을 절감할 수 있는 수준의 생산성 향상을 가능하게 한다”라고 말했다.
킴벌은 냉각 방식에서도 엔비디아의 혁신이 돋보인다고 평가했다. 그는 “냉각 라인을 미드플레인(midplane)으로 직접 연결하는 방식은 구조적으로 매우 깔끔하며 효율성도 높다”라고 평가했다.
한편, 전력 공급 압박이 커지는 상황에서 칩의 가격과 에너지 효율 간의 균형이 새로운 경쟁 요인으로 떠오르고 있다. IDC의 기술 전략 리서치 디렉터 브랜든 호프는 “결국 중요한 건 ‘와트당 토큰’이다. 자금은 충분하지만 전력이 부족한 시대에, 이런 칩이 더욱 매력적인 선택이 된다”고 말했다.
엔비디아는 베라 아키텍처의 발전과 맞물려 800VDC 전력 인프라 시대를 준비하고 있다. 엔비디아에 따르면, 기존의 415VAC 또는 480VAC 3상 전력 시스템에서 800VDC로 전환하면 데이터센터는 확장성이 향상되고, 에너지 효율이 개선되며, 자재 사용이 줄어들고, 전반적인 처리 성능도 높아진다.
이러한 고급 인프라 구조는 이미 전기차와 태양광 산업에서 도입된 기술로, 엔비디아는 이를 데이터센터 인프라에도 적극적으로 적용하고 있다.
다만, 이러한 전환은 기술 스택의 모든 계층이 긴밀하게 협력해야 가능한 일이다. 엔비디아는 현재 20곳이 넘는 업계 주요 기업들과 함께 공동 설계 청사진을 마련하고 있다고 밝혔다.
기가 스케일 AI 슈퍼팩토리를 지원
엔비디아는 이번 주 베라 루빈 MGX와 함께 OCP에서 스펙트럼-XGS 이더넷 지원을 공식 발표할 예정이다.
지난 8월 처음 공개된 스펙트럼-XGS 이더넷은 엔비디아의 스펙트럼-X 이더넷 네트워킹 플랫폼의 일부로, 기업이 도시, 주, 대륙 단위로 분산된 데이터센터를 하나의 컴퓨팅 패브릭으로 연결해 기가 스케일 AI 팩토리를 구축할 수 있도록 설계됐다.
새로운 알고리즘은 지리적으로 떨어진 GPU, 서버, 데이터센터의 네트워크 성능을 자동으로 조정해 하나의 시스템처럼 작동하도록 한다. 엔비디아는 이 시스템이 부하 분산, 적응형 라우팅, 혼잡 제어, 텔레메트리 등을 자동으로 조율해 거리로 인한 성능 저하 없이 안정적으로 운영된다고 설명했다.
스펙트럼-X의 초기 도입 기업으로는 메타와 오라클이 있다. 메타는 대규모 네트워크 스위치를 관리·제어하는 자사 시스템 FBOSS(Facebook Open Switching System)에 스펙트럼-X 스위치를 통합할 계획이다. 델라에르는 이를 통해 “AI와 비AI 워크로드를 하나의 협업형, 미래 지향적 이더넷 플랫폼에서 통합 운영할 수 있다”라고 말했다.
오라클은 베라 루빈 기반으로 가속화된 스펙트럼-X를 AI 팩토리에 통합할 예정이며, 델라에르는 “이 시스템은 95%의 데이터 처리 효율을 유지하면서도 지연이 전혀 발생하지 않는다”고 밝혔다.
IDC의 리서치 디렉터 브랜든 호프는 “엔비디아가 GTC 컨퍼런스에서 4년짜리 제품 로드맵을 공개한 것은 기업들의 실제 인프라 투자 주기, 즉 3~5년 이상 걸리는 계획과 정확히 맞물린다”고 분석했다. 그는 또 “컴퓨팅 가속화는 CPU, GPU, 스마트NIC, 랙스케일 설계, 소프트웨어 스택 등 모든 영역이 함께 진화하는 과정이며, 엔비디아는 이 모든 분야에서 동시에 전진하고 있어 따라잡기 쉽지 않다”라고 말했다.
[email protected]