AI에 대해 안전을 지키면서 혁신도 허용하려는 조 바이든 미국 대통령의 최근 행보에는 강제력이 없다. 이는 AI 기업이 여전히 원하는 것을 마음대로 할 수 있다는 의미이기도 하다.
AI 기술 기업 7곳이 날로 진화하는 기술에 대한 안전, 보안, 신뢰의 위험 요소를 줄이겠다고 최근 ‘자발적으로 약속’했다. 기술 업계 전문가들은 이 약속이 큰 도움이 되지 않을 거라고 내다봤다.
조 바이든 미국 대통령은 지난 21일 백악관에서 아마존, 앤트로픽, 구글, 인플렉션, 메타, 마이크로소프트, 오픈AI 등 7개 주요 AI 기술 기업을 만났다. 기업들은 모두 AI 기술 개발에 있어 안전 표준을 준수하기 위해 최선을 다하겠다고 밝혔다.
백악관은 성명을 통해 “바이든-해리스 행정부가 안전하고 투명한 AI 기술 개발을 위한 AI 기업의 자발적인 약속을 확보했다”라고 밝혔다. 바이든 대통령이 7개 기업으로부터 받아낸 약속에는 AI 시스템 출시 전 ‘외부’ 보안 테스트 진행, 서드파티가 AI 시스템의 취약점을 발견하고 보고할 수 있는 장치 마련, AI 콘텐츠 생성 시기 확인을 위한 워터마크 사용 등의 내용이 포함됐다.
백악관 관계자들은 이번 회담에 대해 긍정적으로 평가했다. 하지만 AI 개발을 규제하는 데 약속이 큰 도움이 되지 않을 거란 의견도 제기됐다.
가트너 리서치의 부사장 겸 애널리스트 이비바 리탄은 “강제할 수도 없고 상대적으로 모호한 자발적 약속을 기업에게 받아 AI 위험을 통제하려는 바이든 행정부의 최근 행보는 실망스럽다”라고 말했다. 리탄은 “이는 정부 규제 당국이 시민을 악의적이거나 부적절한 AI 사용으로 초래될 수 있는 처참한 결과로부터 보호할 준비와, 빠르게 변화하는 기술을 따라잡을 준비를 전혀 하지 않았다는 증거다”라고 지적했다.
바이든 행정부는 지난 5월 AI 기업들과 회담을 갖고 안전 및 개인정보 보호를 위한 AI 지침을 발표한 바 있다. 발표는 구속력이 없었지만, 오픈AI의 챗GPT와 같은 생성형 AI 기술이 초래할 실제적이고 실존적인 위협에 대해 국가 차원의 지침을 제공하고 대화를 시작하려는 노력의 일환이었다.
뉴욕 타임즈에 따르면 백악관은 최근 AI 관련 행정명령을 준비하고 초당적인 입법을 추진하고 있다고 밝혔다. 책임감 있는 혁신을 촉진하고, 새 AI 기술 프로그램 및 구성 요소를 얻으려는 중국 및 다른 경쟁자들을 통제하기 위해서라는 설명이다.
이 행정명령에는 첨단 반도체 규제를 신설하고 대규모 언어 모델(LLM) 수출을 통제한다는 내용이 담길 것으로 예상된다. LLM은 자연어 입력을 처리하고 이미지, 비디오 콘텐츠 및 문서를 독립적으로 생성하는 컴퓨터 알고리즘이다.
IDC의 AI 및 자동화 연구 담당 부사장 리투 조티는 AI 기업들의 약속이 ‘좋은 시작’이지만, 보다 구체적인 조치가 전 세계적으로 발전해야 한다고 말했다. 그는 “곧 발표할 행정명령을 통해 약속이 더 잘 이행돼 백악관이 우리가 바라는 수준의 영향력을 미칠 수 있길 바란다”라고 말했다.
리탄에 따르면 최근 중국은 책임감 있는 공공 AI 사용에 관한 포괄적 규칙을 발표했다. 이는 8월 발효를 앞두고 있다. 규제의 진전에 있어 미국보다 더 빠른 속도다.
리탄은 “이 규칙에서 중국이 국가적 의제를 위해 AI를 사용하는 방식은 다뤄지지 않았다. 현재 어떤 생성형 AI 프레임워크도 국제적 공익을 위한 국가간 협력의 필요성을 언급하지 않았다. 미국은 AI로 인한 실존적 위험을 해결하고자 글로벌 노력을 주도하기 전에 스스로가 행동에 나서야 한다”라고 설명했다.
리탄은 AI의 적절한 사용과 안전을 관리하는 규제 마련에 최소한 국제적인 노력이 필요하다고 말했다. 기본적으로 기술은 이동 가능하고 지역이나 국경의 제한을 받지 않기 때문이다.
“핵무기나 기후 변화와 같은 실존적 위험에 대비하는 글로벌 협약의 선례가 있다. 위험과 통제가 AI보다 훨씬 명확함에도 불구하고 협약에는 결함이 있었다. 글로벌 차원에서 AI 위험을 통제하는 데 얼마나 많은 어려움이 있을지 상상해 보라”라고 리탄는 말했다.
한편 척 슈머 미국 상원 민주당 원내대표는 지난 6월 AI 기술 관련 투명성과 책임감 강화를 촉구하는 ‘SAFE 혁신 프레임워크’를 발표했다. 리탄은 척 슈머의 발표 내용에 대해, 최소한 법률을 위반하면 처벌할 수 있는 강제성이 있기 때문에 AI 기업이 기술의 오용을 방지하도록 의회가 압박할 가능성이 더 높다고 언급했다.
그녀는 “미국 법률이 개정되면 AI 모델과 애플리케이션의 악의적 사용으로 인한 피해를 잠재적으로 억제할 수 있다”라며 “슈머는 신중하게 문제점을 파악하고 합리적인 법안을 만드는 방향을 제시했다. 그러나 의회는 기술 위험에 대처하고 강제력이 있는 유용한 법률을 통과시키는 데 있어 끔찍하기로 정평이 나 있다”라고 지적했다.
기업의 머신러닝 개발 지원 스타트업인 스노클AI의 CEO 알렉스 래트너는 리탄의 의견에 일부 동의했다. 그는 이제 비공개 소스 플랫폼이 한두 개가 아니며, 경우에 따라서는 독점 플랫폼보다 더 나은 오픈소스 변형 모델도 많이 등장하고 있다고 언급했다. 이 때문에 AI를 규제하기가 어려울 것이라고 내다봤다. 라트너는 “모델 수가 점점 더 빠르게 증가하고 있다”라고 덧붙였다.
이에 AI를 규제하려는 시도는 업계 전반의 노력이어야 하며 ‘독점’의 손에 맡겨서는 안 된다는 의견도 이어진다.
워싱턴 대학의 컴퓨터공학과 교수이자 AI 모델 배포 플랫폼 옥토ML(OctoML)의 CEO 루이스 세제는 AI에 대한 보호 장치 마련이 좋은 시도이긴 하지만, 과도한 규제가 혁신을 저해할 수 있다는 우려를 낳고 있다고 말했다.
세제는 AI 기술은 이미 새장을 벗어낫으며(The cat is out of the bag), 생성형 AI 플랫폼을 만들 때 선택할 수 있는 LLM 라이브러리도 많아졌다고 설명했다.
세제는 <컴퓨터월드>에 보낸 메일에 “새롭게 떠오르는 모델들을 지원할 수 있는 기술 생태계가 갖춰졌다. 2022년에는 없었던 AI 비즈니스가 지금은 수백 개 있다. 나는 책임감 있는 AI 기술을 적극 지지한다. 하지만 이를 위해서는 체계적인 접근 방식이 필요하다. AI는 단순히 하나의 기술이 아니라, 의료와 과학 분야까지 발전시킬 잠재력을 가진 주춧돌과 같다”라고 말했다. dl-ciokorea@foundryco.com