기업뿐만 아니라 정부 기관에서도 AI를 적절히 활용하려면 중앙 집중식 계획과 전문 지식이 뒷받침돼야 하는 것으로 조사됐다.
영국 국가감사원(National Audit Office, NAO)은 생성형 AI를 광범위하게 도입하면 영국 정부의 생산성을 대폭 늘릴 수 있지만, 이를 위해선 전문성과 적절한 도입 전략이 함께 수반돼야 한다고 밝혔다.
NAO는 15일 발행한 ‘정부 기관의 AI 활용’ 보고서를 통해 생성형 AI는 영국 공무원의 생산성을 엄청나게 높여줄 가능성을 갖고 있음에도 AI 채택에 필요한 전반적인 전략이 정부 내에 부재한 상태라고 지적했다.
NAO에 따르면, 현재 영국 정부는 여러 부서에서 개별적으로 AI 활용법을 모색하고 있다. 정부의 통합 AI 활용 전략이 없는 셈이다. 물론 영국의 과학혁신기술부는 인공지능 정책국으로 대표되는 AI 전문 부서와 함께 AI 전략을 주도하고 있다. 그럼에도 정부 부처 70%가 각각 AI 사용 사례를 시범 운영하거나 계획하고 있다.
영국 국회의원이자 NAO를 감독하는 공공회계위원회 위원장인 멕 힐리어는 정부의 중앙 디지털 및 데이터 사무국(CDDO)이 있는 내각실이 AI 통합을 주도하는 역할을 맡아야 한다고 제안했다.
힐리어는 공식 성명에서 “정부는 수년 동안 AI 사용을 장려해 왔으며 이미 많은 정부 기관에서 AI를 사용하거나 탐색하고 있다. 내각실이 기존 AI 프로젝트에서 얻은 통찰력과 학습 결과를 모아 부서 간에 공유해야 한다”라며 “AI는 공공 서비스를 혁신할 엄청난 기회를 제공한다. 그런 기회를 극대화하려면 정부는 공공 부문 전반에 걸쳐 대규모로 AI를 구현하고 채택해야 한다”라고 설명했다.
AI는 이미 영국 내 많은 정부 부처에 도입돼 있다. NAO에 따르면, 각 부서는 주로 의사결정에 도움을 받고자 문서 분석 자동화, 디지털 비서, 이미지 인식 기능에 AI를 활용하고 있다.
AI 도입 및 확장
NAO의 연구 결과는 공공 기관뿐만 아니라 기업도 살펴보면 좋다. 특히 리스크와 변화를 극도로 싫어하는 기업에게 유용할 것이다.
NAO 연구에 따르면, AI 도입 성과가 나오는 곳에선 테스트와 시범 운영이 매우 중요한 역할을 했다. 실제로 조사에 참여한 정부 기관 중 70%가 테스트와 시범 운영을 진행한 것으로 나타났다. 영국 정부는 기업의 전문가 그룹(Centers of Excellence)과 유사한 공공 기관을 지원하고 있다. 대표적으로 건강 데이터 애플리케이션을 개발하는 NHS AI 연구소, 국가통계청의 데이터 과학 캠퍼스가 있다. 이외에도 영국 연구 및 혁신 프로그램의 지원을 받는 부서가 다양하게 존재한다.
NAO는 “AI를 구현하고 확장하려면 공무원 스스로 비즈니스의 필요성을 이해해야 한다”라며 “또한 AI 이니셔티브 성과를 주도하는 고위급 임원은 누구인지 명확하게 정해야 하고, 원하는 결과가 무엇인지, 성과를 어떻게 측정할 것인지도 알아야 한다”라고 조언했다.
NAO는 AI가 직원에게 미칠 영향력을 영국 정부가 제대로 파악하지 못하고 있다고 지적했다. 특히 전반적으로 필요한 인력 구성과 어떤 역량이 중요한지 제대로 조사되지 않았다고 표현했다.
데이터 인프라
정부는 오랜 역사만큼 레거시 IT 시스템을 보유하고 있기 때문에 AI를 도입하기 전에 인프라 개선을 우선 고려해야 할 수 있다. 여기에 데이터 품질과 일관성을 보장하는 인프라도 함께 지원되어야 할 수도 있다. 이런 측면에서 NAO는 AI 도입 계획은 디지털 혁신 프로그램에 따라 그 내용이 달라질 수 있다고 설명했다.
NAO는 정부가 2025년까지 위협 요소가 많은 레거시 시스템을 우선 개선할 계획이지만 이러한 레거시 문제를 완전히 해결하는 데는 시간이 걸릴 것이라고 평가했다.
조사에 참여한 정부 기관 68%는 AI를 구현을 막는 핵심 장애물에 ‘고품질 데이터에 접근이 어려운 것’을 꼽았다. 다만 영국 CDDO는 이런 장애물을 없애기 위해 노력하고 있다. 예를 들어 데이터 성숙도 평가 개발, 데이터 검색을 위한 중앙 집중식 허브 구축, 공유 데이터 자산 구축 등 이미 민간 기업에서 시행 중인 프로젝트를 영국 정부 안에서도 진행하고 있다.
안전 표준
NAO는 여러 정부 기관이 AI의 위험성을 인지했으며, 문제 해결을 위한 외부 지원을 기대하고 있다고 설명했다. 여기서 말하는 AI의 위험성은 법적 책임, 부정확한 결과물, 보안 취약점 등을 말한다.
NAO는 AI 안정성을 높이기 위해 기존 도구를 더 적극 사용할 수 있다고 조언했다. 예를 들어 ‘알고리즘 투명성 기록 표준(Algorithmic Transparency Recording Standard, ATRS)’이 있다. ATRS는 정부 기관의 투명성을 개선하고 자동화 도구 보고를 위해 만든 표준이다. 2022년에 정부 기관 전체를 상대로 사용 허가가 난 상태임에도 불구하고 ATRS 사용률은 아직 저조한 상태다. 올해 말 정부 부처에 ATRS가 의무화될 가능성이 있음에도 불구하고 NAO 조사 응답자 중 4분의 1만이 “늘 또는 일반적으로 ATRS를 준수하고 있다”고 말했다.
NAO의 연구는 AI가 가진 잠재력을 끌어올리자고 주장하고 있다. AI에 대해 낙관적인 입장을 가진 편이다. 최근 여러 국가에서 AI 사용을 규제하는 것과는 대조되는 태도다.
대표적으로 지난 10월 바이든 행정부는 행정 명령을 통해 AI의 안전과 보안을 강조하며 안전 테스트 요건을 제시했다. 동시에 정부에서 사용하는 모든 AI에 대한 표준과 테스트를 의무화를 요구하는 등 생성형 AI의 잠재적 위험성을 줄이는 데 투자하고 있다.
dl-ciokorea@foundryco.com