Skip to content
맥갤러리 로고 맥갤러리:Macgallery
Go back
NIST CAISI, 마이크로소프트·구글·xAI와 AI 사전 출시 평가 협약 체결
AI

NIST CAISI, 마이크로소프트·구글·xAI와 AI 사전 출시 평가 협약 체결

미국 국립표준기술연구소(NIST) 산하 CAISI가 구글 딥마인드, 마이크로소프트, xAI와 프론티어 AI 모델의 출시 전 국가 안보 평가 협약을 맺었다.

오힘찬 ·
via NIST

미국 국립표준기술연구소(NIST) 산하 AI 표준혁신센터(CAISI)가 구글 딥마인드(Google DeepMind), 마이크로소프트(Microsoft), xAI와 프론티어 AI 모델의 사전 출시 평가 협약을 체결했다. 이 협약에 따라 CAISI는 세 기업이 개발 중인 AI 모델을 일반 공개 전에 평가할 수 있게 된다. 평가의 초점은 국가 안보와 공공 안전에 대한 잠재적 영향이며, 개발사는 안전장치를 줄이거나 제거한 상태의 모델을 제공해 보다 철저한 검증이 이뤄지도록 한다.

이번 협약으로 미국의 주요 프론티어 AI 연구소가 모두 정부의 자발적 사전 평가 체계에 참여하게 됐다. OpenAI와 앤스로픽(Anthropic)은 2024년부터 기존 파트너십을 유지해왔으며, 트럼프 행정부의 AI 행동 계획에 맞춰 협약을 재협상했다. CAISI는 현재까지 미공개 모델을 포함해 40건 이상의 평가를 완료한 상태다. 자발적 협약이지만, 행정부가 AI 모델 감독에 관한 행정명령을 별도로 검토하고 있어 의무화 가능성도 열려 있다.

이 움직임은 더 넓은 맥락에서 이해해야 한다. 파이브 아이즈 동맹국은 에이전틱 AI의 보안 위험에 대해 공동 경고를 발표했고, 미 국방부는 8개 기업과 AI 계약을 체결하며 군사 분야 AI 도입을 가속하고 있다. NIST가 딥시크 V4 프로를 평가한 사례에서 보듯, 정부 차원의 AI 평가 범위는 미국 기업을 넘어 해외 모델까지 확대되는 추세다. 프론티어 AI의 능력이 빠르게 향상되는 만큼 출시 전 안전 검증의 중요성도 커지고 있으며, 자발적 협약이 제도적 의무로 전환되는 시점이 머지않아 보인다.

FAQ

CAISI는 어떤 기관인가?

CAISI(Center for AI Standards and Innovation)는 미국 국립표준기술연구소(NIST) 산하 조직으로, AI 표준 수립과 프론티어 모델의 안전성 평가를 담당한다. 지금까지 미공개 모델을 포함해 40건 이상의 평가를 완료했다.

사전 출시 평가에서 안전장치를 해제하는 이유는?

안전장치가 적용된 상태에서는 모델의 실제 위험 능력을 파악하기 어렵다. 개발사가 안전장치를 줄이거나 제거한 버전을 제공해야 국가 안보와 공공 안전에 미치는 잠재적 영향을 정확히 평가할 수 있다.

OpenAI와 앤스로픽은 왜 별도로 언급되나?

두 기업은 2024년부터 이미 정부와 사전 평가 파트너십을 맺고 있었다. 이번에 트럼프 행정부의 AI 행동 계획에 맞춰 기존 협약을 재협상한 것이므로, 신규 체결이 아니라 갱신에 해당한다.

이 협약은 법적 의무인가?

현재로서는 자발적 참여다. 다만 트럼프 행정부가 AI 모델 감독에 관한 행정명령을 검토 중이어서, 향후 의무화로 전환될 가능성이 있다.

미국 외 국가도 비슷한 체계를 갖추고 있나?

파이브 아이즈(Five Eyes) 동맹국이 최근 에이전틱 AI의 보안 위험에 대해 공동 경고를 발표하는 등 국제적 움직임이 있다. 다만 미국처럼 프론티어 모델 사전 평가를 체계화한 사례는 아직 드물다.


댓글