AI의 빠른 채택으로 인해 에너비 소비량이 공급량을 넘어서고 있다. 주요 AI 서비스 기업들은 원자력 발전소를 새로운 해법으로 간주하는 분위기다.
데이터센터가 점점 더 큰 규모의 인공지능(AI) 모델을 실행하기 위해 비대해지고 있다. 이로 인해 방대한 GPU를 내장한 서버들이 소비하는 전력도 함께 폭증하고 있다. 주요 AI 동향을 조사하는 연구 기관 에포크 AI(Epoch AI)의 연구에 따르면 2010년 이후 AI 대규모 언어 모델(LLM) 구동에 필요한 컴퓨팅 용량은 매년 4~5배씩 증가했다. 오픈AI, 메타, 구글, 딥마인드 등의 모델을 구동하기 위해서다.
아마존 웹 서비스, 마이크로소프트, 구글과 같은 AI 서비스 제공업체들은 데이터센터의 증가하는 전력 수요를 충족하기 위해 전력원을 찾고 있으며, 이 과정에서 원자력 발전에 주목하고 있다. 백악관은 최근 무탄소 전기 또는 친환경 전원을 늘리기 위한 이니셔티브의 일환으로 새로운 원자력 발전소 개발을 지원하는 계획을 발표했다.
에너지 블랙홀 인공지능
세계경제포럼(WEF)에 따르면 AI 부상으로 인해 요구되는 컴퓨팅 파워는 약 100일마다 두 배씩 증가하고 있다. 이러한 추이라면 “지속 가능성 요건과 균형을 이루는 AI의 발전이 시급하다”라고 이 단체는 주장한다.
제네바에 소재한 이 비정부기관은 “이러한 발전의 환경적 영향은 종종 간과되고 있다”라고 지적했다. 예를 들어, AI 모델 효율을 10배 개선하려면 컴퓨팅 전력 수요가 최대 1만배까지 급증할 수 있다는 설명이다. 또 AI 작업을 실행하는 데 필요한 에너지는 이미 연간 26%에서 36% 사이의 성장률로 가속화되고 있다.
WEF는 “2028년이면 AI가 2021년 아이슬란드 전체의 소비 전력보다 더 많은 전력을 사용할 수 있음을 의미한다”라고 표현했다.
“간단히 말해, AI는 그다지 친환경적이지 않다”라고 기술 산업 리서치 회사인 J. 골드 어쏘시에이츠의 잭 골드 수석 애널리스트는 말했다.
그에 따르면 대규모 언어 모델(LLM)은 인터넷과 기타 소스에서 수집한 방대한 양의 데이터를 바탕으로 스스로 학습한다. 이 과정에서 압도적으로 많은 컴퓨팅과 전력이 요구된다. 각종 AI 도구가 데이터를 기반으로 사용자에게 답변을 제공하는 행위(‘추론’)는 사실 에너지를 그리 요구하지 않는다.
LLM이 늘 학습 상태인 것은 아니다. 하지만 LLM이 자리하고 있는 데이터센터는 항상 최대 전력을 사용할 수 있는 상태여야 한다. “집안의 모든 조명을 켜야 하는 상황에서 조명이 깜박거리기를 원하지는 않을 터다”라고 골드는 말했다.
그는 이어 “결론은 이들 모두가 엄청난 전력을 소비한다는 사실이다. 엔비디아 H100 모듈이나 동급의 GPU를 연결할 때마다 1킬로와트의 전력이 사용된다. 1만 개 또는 1만 개 정도를 떠올려보라”라고 덧붙였다.
전력원을 찾아라
기술 기업들은 AI의 전력 수요를 충족하기 위해 전력 자원을 적극적으로 모색하고 있다. 월스트리트 저널(WSJ)과 다른 소식통에 따르면 이는 전력 가격 인상을 유도하고 배출량 감축 목표를 저해할 수 있다. WSJ이 인용한 소식통에 따르면, 원자력 발전소 소유 기업 일부가 이미 인공지능을 구동하는 데이터센터에 전기를 공급하려는 기술 기업과 협의 중이다.
예를 들어, 아마존 웹 서비스는 컨스텔레이션 에너지와 계약을 체결해 원자력 발전소의 전력을 확보할 전망이다. 씨티즌 보이스에 따르면 아마존 자회사는 6억 5,000만 달러를 들여 펜실베이니아의 탈렌 에너지로부터 원자력 에너지로 작동하는 데이터센터를 구입했으며, 이 전력을 공급받을 15개의 새로운 데이터센터를 캠퍼스에 건설할 계획이다.
그러나 원자력 에너지를 새롭게 확보하기란 사실 쉽지 않다. 원자력 발전소를 건설하는 데 10년 이상이 걸릴 수 있다. 골드 애널리스트는 “전력 회사들은 현재 수요를 충족하는 데 큰 어려움을 겪고 있다. 새로운 발전소를 건설하려면 수많은 절차를 거쳐야 한다. 문제는 현재 미국에는 발전소가 부족하다는 사실이다. 여름에는 브라운아웃이 발생하기도 한다”라고 말했다.
이로 인해 에너지 공급이 높은 가격을 써낸 입찰자에게 한정될 수 있다. 하지만 아이러니하게도 그 전력에 대한 비용은 AI 제작자와 공급자가 아닌 AI 사용자가 부담하게 된다. “그렇다. [AWS]는 연간 10억 달러의 전기 요금을 지불하고 있지만, 고객들은 연간 20억 달러를 지불하고 있다. 이것이 바로 상거래가 작동하는 방식이다”라고 골드는 말했다.
그는 이어 “흥미롭게도 빌 게이츠가 차세대 발전소를 건설하려는 소규모 원자력 회사에 투자하고 있다. 이 회사는 새로운 발전소를 지으려 한다는 점에서 미니 웨스팅하우스와 같다. 게이츠는 뭔가를 파악하고 있는 것 같다. 친환경 AI가 필요하지만 친황경 AI가 절실하게 필요하지만, 이를 찾아내기란 정말 쉽지 않을 것”이라고 덧붙였다.
아마존은 생 에너지에 대한 적극적인 기업으로 손꼽힌다. 파리 협정보다 10년 앞선 2040년까지 탄소 순배출 제로를 달성하겠다는 목표를 수립했다. 세계 최대 재생 에너지 구매 업체인 아마존은 2025년까지 사업 운영에 필요한 모든 전력을 100% 재생 에너지로 충당할 계획이기도 하다. 대변인에 따르면 이미 90%에 도달한 상태다.
그는 이어 “탄소 없는 에너지로의 전환에 있어 만능 해결책은 없으며, 실행 가능하고 확장 가능한 모든 옵션을 고려해야 한다고 생각한다”라고 말했다.
AI, 인프라 계획을 돕는 존재
미국 에너지부(DOE)는 데이터센터 에너지 수요 증가로 인해 발생할 수 있는 잠재적 문제와 전력망의 보안 및 복원력에 어떤 위험을 초래할 수 있는지 탐색하고 있다. 또한 전력망의 안정성을 분석하고 유지하기 위해 AI를 활용하고 있기도 하다.
DOE가 최근 발표한 에너지용 AI 보고서에서는 “AI 자체가 전력망에 부담을 가중시키는 상당한 부하 증가로 이어질 수 있다”라고 인정하고 있다. 그러나 동시에 “AI는 에너지 인프라의 설계, 라이선스, 구축, 운영, 유지보수 비용을 수 천억 달러까지 절감할 수 있는 잠재력을 가지고 있다”라고 DOE는 밝힌다.
AI 기반 도구는 DOE의 다양한 정보 소스를 통합 및 구성하고 데이터 구조를 최적화하여 AI 모델과 함께 사용하는 데 필요한 시간을 크게 단축할 수 있다.
실제로 DOE의 아르곤 연구소는 부지 선정, 허가 및 환경 검토 프로세스를 개선하고 여러 기관에서 검토의 일관성을 개선하기 위해 기초 모델 및 기타 AI를 사용하여 평가하는 여러 작업 스트림이 포함된 3년 간의 파일럿 프로젝트를 시작했다.
이 기관의 대변인은 “효율적인 발전 및 그리드 계획을 지원하기 위해 AI를 사용하고 있으며, 에너지 인프라의 허가 병목 현상을 이해하기 위해 AI를 사용하고 있다”라고 말했다.
AI의 미래, 더 작아진다
LLM이 더 많은 전력을 탐닉하고 있기는 하지만 미래의 전력 수요를 줄이는 데 핵심적인 역할을 할 수 있는 변화도 일어나고 있다. 바로 소형 LLM이다.
산업 또는 비즈니스에 초점을 맞춘 더 작은 알고리즘 모델은 종종 비즈니스 요구에 맞는 더 나은 결과를 제공할 수 있다. 2,000명 이상의 IT 및 현업 부서 의사결정권자를 대상으로 한 IDC 설문조사에 따르면 기업들은 2022년에 비해 향후 1년 반 동안 AI 이니셔티브에 10~15% 더 투자할 계획이다. IDC 조사에 따르면 전 세계 기업의 66%는 향후 18개월 동안 생성형 AI에 투자할 것이라고 답했다.
2024년에 생성형 AI에 대한 IT 지출이 증가할 것이라고 응답한 기업의 지출 중 내부 인프라가 전체의 46%를 차지할 것으로 예상된다. 문제는 이러한 AI 인프라를 구축하는 데 필요한 핵심 하드웨어인 프로세서의 공급이 부족하다는 점이다.
수천억 또는 1조 개의 파라미터를 가진 LLM은 칩 공급 문제를 일으키고 있으며, 이는 기업의 서버에 부담을 주고 특정 비즈니스 용도에 맞는 모델을 훈련하는 데 비현실적으로 긴 시간을 초래할 수 있다.
가트너 리서치의 부사장 겸 수석 애널리스트 아비바 리탄은 “조만간 GPU 칩의 확장이 모델 크기의 증가를 따라잡지 못할 가능성이 크다. 따라서 계속해서 모델을 점점 더 크게 만드는 것은 실행 가능한 옵션이 아니다”라고 말했다.
또한 LLM이 수집하는 비정형 데이터가 많을수록 부정확하고 잘못된 결과물이 나올 가능성도 커진다. 생성형 AI 도구는 기본적으로 다음 단어 예측기이므로 결함이 있는 정보를 입력하면 결함이 있는 결과가 나올 수 있다.
이에 대한 해결책으로 기업들은 더 작은 LLM을 사용하고 독점 정보를 사용하는 방안을 모색하고 있다.
블룸버그에 따르면 미국 에너지부 청정에너지국의 인프라 담당 차관인 데이비드 크레인은 소위 소형 모듈형 원자로의 새로운 설계에 대해 “매우 낙관적”이라고 말했다. 골드 애널리스트는 “미래에는 훨씬 더 많은 AI가 엣지 디바이스에서 실행될 것이며, 이는 모두 추론 기반이 될 것이다. 2~3년 내에 워크로드의 80~85%가 엣지 디바이스에서 처리될 것이다. 결과적으로 더 관리하기 쉬운 문제가 될 것”이라고 말했다. dl-ciokorea@foundryco.com