OpenAI가 슈퍼컴퓨터 네트워킹 프로토콜 MRC(Multipath Reliable Connection)를 오픈소스로 공개했다. AMD, 브로드컴(Broadcom), 인텔(Intel), 마이크로소프트(Microsoft), NVIDIA와 공동 개발한 이 프로토콜은 패킷을 수백 개의 경로에 동시에 분산시켜 네트워크 혼잡을 줄인다. 장애 감지와 우회는 마이크로초(microsecond) 단위로 이루어지는데 기존 방식이 수 초에서 수십 초가 걸리던 것과 비교하면 극적인 개선이다.
MRC의 핵심 이점은 대규모 GPU 클러스터의 네트워크 구조를 단순화한다는 점이다. 기존에는 3단에서 4단의 네트워크 스위치 계층이 필요했지만 MRC를 적용하면 이더넷 스위치 2단만으로 10만 개 이상의 GPU를 연결할 수 있다. 스위치 단수가 줄어들면 전력 소비도 함께 낮아진다. 이 프로토콜은 이미 OpenAI의 최대 규모 GB200 슈퍼컴퓨터들에 배포되어 있으며 텍사스 애빌린의 오라클 클라우드 인프라(Oracle Cloud Infrastructure) 사이트와 마이크로소프트 페어워터(Fairwater) 슈퍼컴퓨터가 여기에 포함된다.
OpenAI는 MRC를 오픈 컴퓨트 프로젝트(Open Compute Project, OCP)를 통해 업계 전체에 공개했다. 빅테크 기업들이 2026년에만 7000억 달러 규모의 AI 인프라 투자를 계획하고 있는 상황에서, 네트워킹 병목은 GPU 확장만큼이나 중요한 과제다. KKR이 헬릭스(Helix) 디지털 인프라에 투자하는 등 데이터센터 투자가 급증하는 가운데 MRC 같은 효율적 네트워킹 기술의 표준화는 AI 인프라 비용 구조 전체에 영향을 미칠 수 있다. OpenAI가 분사 계획을 철회하고 핵심 연구에 집중하겠다고 밝힌 맥락에서, 인프라 기술의 오픈소스 공개는 생태계 주도권을 확보하려는 전략적 행보로 읽힌다.