그래픽=양인성

한꺼번에 많은 연산을 처리하는 엔비디아의 고성능 AI 반도체인 H100을 돌리기 위해선 일반 반도체의 4배에 이르는 700W 고출력이 필요하다. 이전 버전인 A100이 400W였던 것과 비교하면 필요 전력이 늘었다. AI 반도체는 이렇듯 전기를 많이 소모한다.

최근 전 세계적으로 전력 수요가 갑자기 폭증한 배경엔 데이터센터, AI(인공지능) 서비스, 반도체 등 첨단 산업 생산 시설의 증가가 있다. 이런 시설과 서비스가 365일 24시간 내내 멈추지 않고 가동되면서 작업에 필요한 전력과 열을 식히기 위한 전력 사용이 동시에 늘어난다.

미 에너지부에 따르면, 데이터센터는 같은 면적 일반 사무실의 10~50배에 달하는 에너지를 소비한다. 박종배 건국대 교수는 “데이터센터를 컴퓨터에 비유하자면, 24시간 컴퓨터를 끄지 않고 새 창을 끊임없이 열었다가 닫았다 하며 빠르게 작업하는 것”이라고 했다. 한꺼번에 많은 양의 데이터를 실시간으로 처리하다 보니 쉽게 발열되는데, 열을 식히려면 일종의 ‘거대한 에어컨’도 쉬지 않고 작동해야만 한다.

그래픽=양인성

챗GPT 같은 AI 서비스도 마찬가지다. 사진, 영상, 문서 등 데이터를 한꺼번에 처리하고, 특성이나 패턴을 빠르게 추출해 내는 데는 많은 전력이 들어간다. 미 스탠퍼드대에 따르면, GPT-3와 같은 초거대 AI 모델을 훈련하는 데에는 1287MWh에 이르는 전력량이 필요하다. 우리나라 가정 약 460가구가 1년 내내 쓰는 소비량과 같은 규모다. 이를 시간당 0.8kWh(1000kWh=1MWh)가 필요한 넷플릭스 시청과 비교하면 GPT-3를 훈련시키는 데 필요한 전력량은 넷플릭스를 185년 6개월(162만5000시간) 동안 시청하는 것과 마찬가지다.

한편, 구글 검색에는 평균 0.3Wh(와트시)의 전력을 쓰는데, 생성형 인공지능(AI) 챗GPT는 10배에 가까운 2.9Wh가 필요하다. 조홍종 단국대 교수는 “AI 서비스는 언어뿐 아니라 색깔 하나, 어떤 사물의 곡선의 정도까지도 모두 파악해 복잡한 연산을 한다”며 “특히 최근엔 거대 언어 모델(LLM) 등 더 빠르고 더 똑똑한 기술도 개발되면서 전력 소모량이 많아졌다”고 했다.

작은 먼지에도 쉽게 고장 날 만큼 민감한 반도체 등 첨단 산업 생산 시설도 대표적인 전력 다소비 시설이다. 자동차, 정유 등 업종을 불문하고 앞다퉈 ‘스마트 공장’을 도입하면서 공정 곳곳에 AI 기술을 접목하고 있기 때문이다. 이 과정에서 고도화된 장비를 사용하고 기술을 구현하는 것뿐 아니라, 일정한 온습도와 이물질 없는 ‘클린 룸’을 유지하는 데 전기가 많이 쓰인다.