오픈AI와 브로드컴의 협력은 맞춤형 실리콘과 개방형 네트워킹을 결합해 엔비디아(Nvidia)에 대한 의존도를 낮추고, 차세대 AI 데이터센터의 구조를 새롭게 재편할 가능성을 보여준다.

오픈AI가 브로드컴과 손잡고 자체 개발 AI 프로세서를 공동 설계 및 배포한다고 밝혔다. 이번 협력은 오픈AI가 급증하는 AI 연산 수요에 대응하기 위해 자체 인프라를 강화하는 동시에, 데이터센터 네트워크와 반도체 조달 체계를 기존 엔비디아 중심 구조에서 다변화하려는 전략적 시도로 해석된다.
양사의 다년간 협력 프로젝트는 2026년부터 10기가와트 규모의 오픈AI 설계 가속기와 브로드컴의 이더넷 기반 네트워킹 시스템을 순차적으로 도입할 예정이다. 이는 맞춤형 실리콘과 개방형 네트워킹 아키텍처로의 전환을 가속화하며, 향후 기업이 AI 데이터센터를 구축하고 확장하는 방식에 상당한 영향을 미칠 수 있다.
양사는 공동 성명에서 “오픈AI가 자체 칩과 시스템을 설계함으로써, 최첨단 AI 모델과 제품 개발을 통해 얻은 노하우를 하드웨어에 직접 반영해 새로운 수준의 성능과 지능을 구현할 수 있게 될 것”이라며, “브로드컴의 이더넷과 다양한 연결 솔루션을 기반으로 한 랙 시스템은 전 세계적으로 폭증하는 AI 수요에 대응하기 위해 오픈AI의 자체 데이터센터와 파트너 시설 전반에 구축될 예정”이라고 밝혔다.
AI 인프라의 새로운 강자가 된 이더넷
오픈AI가 엔비디아의 인피니밴드(InfiniBand) 대신 브로드컴의 이더넷 패브릭을 채택한 결정은, 폐쇄적인 전용 네트워크 구조에서 벗어나 보다 개방적이고 확장 가능한 네트워크 백본을 구축하려는 전략적 전환을 의미한다. 이런 접근은 향후 대규모 클라우드 및 기업 환경 전반의 AI 인프라 설계에 새로운 기준을 제시할 가능성이 있다.
업계 분석가들은 이번 결정이 유연성과 상호운용성을 강화하는 개방형 네트워킹 표준으로 전환하려는 산업 전반의 흐름과 맞닿아 있다고 진단했다.
포레스터(Forrester)의 부사장이자 수석 애널리스트인 찰리 다이는 “오픈AI의 이번 선택은 보다 개방적이고 비용 효율적이며 확장 가능한 아키텍처로의 전환을 시사한다. 이더넷은 상호운용성을 높이고 특정 벤더 종속을 피할 수 있어 분산형 AI 클러스터 도입을 가속할 수 있다”라고 말했다. 또한 그는 “고성능 AI 워크로드 분야에서 인피니밴드의 지배력을 흔들기 위한 또 하나의 시도이자, 주요 클라우드 업체가 생태계 다양성과 디지털 주권 확보를 위해 이더넷 표준화를 추진하도록 압박하는 계기가 될 수 있다”라고 분석했다.
옴디아(Omdia)의 수석 애널리스트 리안 지에 수도 “이번 결정은 AI 워크로드가 앞으로는 다양한 컴퓨팅 및 네트워킹 인프라에서 병렬적으로 구동되는 방향으로 발전하고 있음을 보여준다”라고 분석했다.
수는 “기업이 초기에는 AI 구축을 위해 엔비디아의 통합 스택 솔루션에 의존하는 것이 합리적이지만, 이후에는 비용 효율성, 공급망 다변화, 칩 수급 안정성 확보를 위해 AMD나 자체 개발 칩과 같은 대체 솔루션을 통합하는 경우가 일반적”이라고 설명했다. 그는 “데이터센터 네트워킹 벤더가 AI 칩 아키텍처의 다양화에 대응하기 위해 상호운용성과 개방형 표준을 핵심 전략으로 고려해야 한다는 의미”라고 덧붙였다.
현재 주요 클라우드 업체와 기업 CIO들은 급증하는 AI 워크로드를 감당하기 위해 AI 서버를 효율적으로 확장하거나 분산하는 방안에 집중하고 있다. 엔비디아의 GPU는 여전히 대규모 AI 학습의 핵심 기반이지만, 많은 기업들이 이를 다른 가속기와 결합해 운용하는 통합 구조를 모색하고 있다.
카운터포인트리서치(Counterpoint Research) 리서치 부사장 닐 샤는 엔비디아가 올해 초 NV링크(NVLink) 인터커넥트를 외부 생태계 파트너에게 개방하기로 한 결정이 주요 클라우드 업체로 하여금 브로드컴이나 마벨(Marvell) 등 벤더의 맞춤형 가속기와 엔비디아 GPU를 유연하게 결합할 수 있는 기반을 마련했다고 설명했다.
샤는 “이는 기업이 완전한 솔루션을 위해 엔비디아에 전적으로 의존할 필요성을 줄이지만, 동시에 엔비디아 GPU가 주요 클라우드 업체의 맞춤형 컴퓨팅 환경에 가장 선호되는 핵심 구성요소로 자리 잡으면서 엔비디아의 잠재 시장 규모는 오히려 확대시키는 조치”라고 분석했다.
샤는 주요 클라우드 업체 대부분이 이미 x86 기반 인텔(Intel)이나 AMD 프로세서에서 벗어나 맞춤형 컴퓨팅 아키텍처로 전환하고 있다고 덧붙였다. 그에 따르면 많은 기업이 전력 효율을 높이고 인프라 비용을 절감하기 위해 특정 워크로드에 최적화할 수 있는 Arm 또는 RISC-V 기반 설계를 적극 검토하고 있다.
AI 인프라 전략의 변화
이번 협력은 네트워킹 기술 선택이 이제 칩 설계만큼이나 중요한 전략적 요인으로 부상하고 있음을 보여준다. 아울러 이는 AI 워크로드가 구동되고 연결되는 방식 전반이 변화하고 있음을 시사한다.
전문가들은 오픈AI의 행보가 공급망 다변화와 성능 및 비용에 대한 주도권 확보를 중시하는 산업 전반의 흐름을 단적으로 드러낸다고 봤다.
다이는 “이번 파트너십은 엔비디아 GPU와 독점 소프트웨어 스택에 대한 의존도를 줄이려는 산업 전반의 흐름이 가속화되고 있음을 보여준다. AI 도입이 확산되고 AI 선도 기업이 성능 향상과 비용 통제 간의 균형을 모색하면서, 맞춤형 실리콘을 통한 수직 통합 전략이 핵심 경쟁력으로 부상하고 있다”라고 분석했다. 또한 그는 “이런 움직임은 ASIC(주문형 반도체)과 이더넷 기반 패브릭의 중요성을 높이고 칩 제조사 간 경쟁을 촉진할 것”이라고 진단했다.
반면 옴디아의 수는 AI 하드웨어를 자체 설계하고 내부 소프트웨어 지원 역량까지 갖출 수 있는 기업은 소수에 불과하다면서, 주로 대규모 클라우드 업체나 생성형 AI 벤더에 한정될 것이라고 지적했다. 그는 “대다수의 기업은 여전히 엔비디아의 통합형 풀스택 솔루션에 의존할 가능성이 높다”라고 내다봤다.
[email protected]