자세히 보기

美 육군 사령관 출신 영입한 오픈AI ··· 가트너 “기업 신뢰도 높이려는 조치”

오픈AI가 새로운 안전 및 보안 위원회에 미 퇴역 장군 출신인 폴 나카소네를 임명했다. IT 기업이 이사회에 왜 군인 출신 인물을 앉혔을까? 물론 나카소네는 사이버 보안 전문가이기에 오픈AI 보안 전략에 도움을 줄 수 있겠지만, 가트너 애널리스트는 다른 의견을 내비쳤다. 실제 자문을 받기보단 외부 인식을 바꾸기 위한 조치라는 것이다.

오픈AI가 안전 및 보안을 감독하기 위해 퇴역한 미 육군 장군이자 미국 국가안보국(NSA) 국장이었던 폴 나카소네를 이사회 일원으로 영입했다고 13일 밝혔다.

가트너의 AI 보안 및 블로체인 부문 부사장 아비바 리탄은 “이번 인사는 수익 창출에 도움이 될 것으로 판단해 진행됐을 것”라며 “나카소네는 분명 대단한 경력을 가진 인물이긴 하나 실제 오픈AI에 오래 머물지는 않을 것으로 예상된다”이라고 밝혔다.

나카소네는 2018년 5월부터 2024년 2월까지 미국 국방부의 11개 통합 전투사령부 중 하나인 미국 사이버 사령부의 사령관직을 맡았으며, 국가안보국(NSA) 국장, 중앙보안국 국장 등도 역임했다. 그의 소개 문구에 따르면 나카소네는 미국 사이버사령부의 최장수 리더였으며 미국뿐만 아니라 대한민국, 이라크, 아프가니스탄의 부대에서 임무를 수행하기도 했다.

나카소네는 기본적인 오픈AI 이사회에 합류하는 것 외에도 오픈AI가 최근 따로 마련한 안전 및 보안 위원회의 핵심 구성원으로 활동할 예정이다. 안전 및 보안 위원회는 오픈AI가 GPT-4의 후속 기술 개발에 착수하면서 AI 모델의 안전과 보안을 감독하는 목적으로 만든 내부 거버넌스 기구다.

오픈AI는 보도자료를 통해 “오픈AI가 원하는 목표를 달성하려면, 대규모 AI 학습용 슈퍼컴퓨터를 보호해야 하고, 민감한 모델 가중치를 다루고 고객이 입력한 데이터를 보호하는 등 높은 보안성을 갖춰야 한다”라며 “오픈AI는 AGI(Artificial General Intelligence)을 개발하는 과정에서 기술력을 높이면서 정교해지는 보안 위협에 적극 대응하고 있다”라고 설명했다. 또한 오픈AI는 “나카소네의 통찰력은 사이버 보안 위협을 신속하게 탐지하고 대응할 수 있게 지원할 것이며, 궁극적으로 오픈AI의 전반적인 보안 역량을 강화하는 데 도움을 줄 것”이라고 밝혔다.

이번 임명은 오픈AI의 CEO 샘 알트먼이 논란에 휩싸여 있는 상황에서 이루어졌다. 지난 5월 파운드리 산하 언론사 컴퓨터월드는 ‘샘 알트먼은 마이크로소프트의 골칫거리가 되고 있을까?’라는 제목의 칼럼에서 “배우 스칼렛 요한슨의 목소리가 허락 없이 오픈AI 챗봇 음성에 도입됐다는 주장이 나오면서 오픈AI의 신뢰도가 훼손됐다”라고 지적했다. 해당 논란 이후, 알트먼은 스칼렛 요한슨의 주장을 부인했으며, 오픈AI는 아무런 설명 없이 AI 챗봇에서 스칼렛 요한슨의 목소리를 삭제했다.

가트너의 리탄은 “오픈AI가 부정적인 비난 속에서 신뢰를 되찾기 위해 애쓰고 있으며, 그럴 만한 이유가 있다”라며 “오픈AI가 신뢰도와 안정성을 높이는 데 얼마나 진심인지는 정확히 알 수 없다. 한 가지 분명한 것은 보통 이러한 기업들의 주된 동기는 탐욕이라는 것이다. 클라우드 기업, 오픈AI를 비롯한 많은 기업이 매우 위험한 영역으로 나아가고 있다. 그런 기업은 ‘이건 정부 당신이 처리해야 하는 일이다’라고 주장한다. 그리고 그런 요청이 효과가 없다는 것을 기업은 알고 있다. 정부가 소셜 미디어를 관리할 수 없는데 어떻게 AI를 관리할 수 있겠는가”라고 설명했다.

리탄은 또한 “결론적으로 오픈AI는 비용과 노력이 많이 수반되더라도 일단 돈을 벌고 싶고, 나카소네를 영입하는 것이 오픈AI의 신뢰도를 높이는 데 도움을 준다고 봤을 것”이라며 “실제로 나카소네는 사이버 보안 분야에서 좋은 평판을 가진 사람이고, 개인적으로는 나카소네가 오픈AI에 합류해서 기쁘다. 나카소네는 훌륭한 배경을 가지고 있다. 그는 사이버 보안을 이해하고, AI를 이해하고, 관료주의를 잘 알고 있는 인물이다. 하지만 그것 만으로는 충분하지 않다. 그걸로 오픈AI가 모든 문제를 해결할 수 없을 것이다”이라고 설명했다. 여기에 그는 “AI로 인한 잠재적 위험이나 부작용에 대한 우려가 있더라도, AI 기술 발전 그리고 기업이 이를 가지고 이익을 추구하려는 활동을 멈출 수 없다”라고 밝혔다.

리탄은 나카소네가 오픈AI 이사회 구성원으로 1~2년 정도 활동할 것으로 보고 그보다 길게 활동하진 않을 것으로 내다봤다. 리탄은 “나카소네가 이사회에 있는 것은 좋지만, 나카소네가 오픈AI에서 의미 있는 활동을 할지는 의문이다”라고 설명했다.

또한 리탄은 “나카소네가 이사회 및 안전 위원회에 있다고 해서 엄청난 권한을 갖지는 못할 것”이라며 “개발자와 AI 모델을 담당하는 사람이 늘 이사회의 말을 듣는 것도 아니다. 이사회 스스로 내부 기업에서 무슨 일이 일어나고 있는지 정확히 모를 수 있다. 보통 기업 구성원은 이사회에 매우 선별된 내용만 신중하게 전달하기 때문이다”라고 밝혔다.

리탄은 또한 오픈AI가 자체적인 안전 및 보안 위원회를 출범하고 나가소네를 영입한 부분에 대해 “서류상으로 좋은 조치이나 실질적인 효과를 만들지는 못할 것”이라며 “결국 이런 조치는 기업 수익을 높이기 위해 진행한 것으로 봐야할 것”이라고 분석했다.
dl-ciokorea@foundryco.com