미국 국립표준기술연구소(NIST) 산하 AI 표준혁신센터(CAISI)가 구글 딥마인드(Google DeepMind), 마이크로소프트(Microsoft), xAI와 프론티어 AI 모델의 사전 출시 평가 협약을 체결했다. 이 협약에 따라 CAISI는 세 기업이 개발 중인 AI 모델을 일반 공개 전에 평가할 수 있게 된다. 평가의 초점은 국가 안보와 공공 안전에 대한 잠재적 영향이며, 개발사는 안전장치를 줄이거나 제거한 상태의 모델을 제공해 보다 철저한 검증이 이뤄지도록 한다.
이번 협약으로 미국의 주요 프론티어 AI 연구소가 모두 정부의 자발적 사전 평가 체계에 참여하게 됐다. OpenAI와 앤스로픽(Anthropic)은 2024년부터 기존 파트너십을 유지해왔으며, 트럼프 행정부의 AI 행동 계획에 맞춰 협약을 재협상했다. CAISI는 현재까지 미공개 모델을 포함해 40건 이상의 평가를 완료한 상태다. 자발적 협약이지만, 행정부가 AI 모델 감독에 관한 행정명령을 별도로 검토하고 있어 의무화 가능성도 열려 있다.
이 움직임은 더 넓은 맥락에서 이해해야 한다. 파이브 아이즈 동맹국은 에이전틱 AI의 보안 위험에 대해 공동 경고를 발표했고, 미 국방부는 8개 기업과 AI 계약을 체결하며 군사 분야 AI 도입을 가속하고 있다. NIST가 딥시크 V4 프로를 평가한 사례에서 보듯, 정부 차원의 AI 평가 범위는 미국 기업을 넘어 해외 모델까지 확대되는 추세다. 프론티어 AI의 능력이 빠르게 향상되는 만큼 출시 전 안전 검증의 중요성도 커지고 있으며, 자발적 협약이 제도적 의무로 전환되는 시점이 머지않아 보인다.