미국 상무부 산하 국립표준기술연구소(NIST)에 소속된 미국 인공지능안전연구소가 오픈AI와 앤트로픽과 인공지능 안전 연구, 테스트 및 평가에 대한 공식적인 협력을 위한 협약을 체결했다고 29일 밝혔다.
미국 인공지능 안전 연구소는 공식 보도자료를 통해 정부 차원에서 AI 기업과 직접 협약을 체결한 것은 이번이 처음이며, 이번 협업을 통해 모두 안전하고 신뢰할 수 있는 AI 혁신을 발전시키는 데 도움이 될 것이라고 밝혔다.
세 기관이 맺은 협약으로 인해 AI 안전 연구소는 각 회사의 주요 신규 모델이 공개되기 전과 이후에 정부 당국이 직접 접근할 수 있는 프레임워크를 구축할 예정이다. 이를 통해 AI 모델의 기능과 안전 위험을 평가하고 완화하는 방법에 대한 공동 연구가 가능해질 것으로 기대된다. 다만 해당 프레임워크가 구체적으로 어떤 형태인지는 아직 공개되지 않았다.
미국 AI 안전 연구소 소장인 엘리자베스 켈리는 “안전성 확보는 새로운 기술 혁신을 촉진하는 데 필수적이다. 앤트로픽 및 오픈AI와 기술 협력을 시작하여 AI 안전 과학을 발전시킬 수 있을 것”이라며 “시작에 불과하지만, 이번 협약은 AI의 미래를 책임감 있게 관리하기 위해 노력하는 데 있어 중요한 이정표가 될 것”이라고 밝혔다.
미국 AI 안전 연구소는 협약을 통해 논의된 모델 개선 사항을 영국 AI 안전 연구소에게도 제공하면서 국제적 협력도 진행하겠다고 밝혔다.
한편 미국 AI 안전 연구소는 2023년 바이든 행정부의 AI 안전성 확보를 위한 행정명령에 따라 설립됐다. 이 기관은 미국과 전 세계에서 안전한 AI 혁신을 가속화하는 데 도움이 될 테스트, 평가 및 가이드라인을 개발하는 임무를 맡고 있다.
dl-ciokorea@foundryco.com