AI 데이터 센터는 과부하된 미국 전력망에 수요를 폭증시켜 소비자들의 에너지 비용을 더욱 상승시킬 수 있습니다. 또는, 전력망이 가장 큰 부하를 겪는 연간 몇 시간 동안 전력 사용량을 줄이는 데 동의함으로써, 기술 기업들이 시스템에 부담을 주지 않고 필요한 전력을 얻을 수 있도록 할 수 있습니다.
이는 쉬운 해결책처럼 들리지만, 실제로는 작은 도시만큼의 전력을 사용할 수 있는 데이터 센터의 수요를 조절하는 것은 복잡합니다. 그래서 오늘날에는 거의 이루어지지 않습니다. 사실, 작년 에너지부 보고서는 미국 내 데이터 센터에서 ‘전력망 인식 유연한 운영 사례’를 발견하지 못했으며, 유일한 예외는 구글이었습니다.
이제 이 거대 기술 기업은 유연성 노력을 한 단계 더 나아가 AI 개발의 현재 붐을 이끄는 기술인 대규모 언어 모델을 뒷받침하는 머신러닝 작업에 이 개념을 적용하고 있습니다.
이번 달, 구글의 첨단 에너지 책임자인 마이클 테렐은 데이터 센터 수요가 많은 두 유틸리티인 인디애나 미시간 파워(I&M)와 테네시 밸리 당국(TVA)과의 계약을 발표하며, 이는 “머신러닝 워크로드를 목표로 하는 데이터 센터 수요 반응을 제공하는 최초의 사례”라고 밝혔습니다.
구글의 새로운 발표는 매우 중요한 의미를 지닌다고 듀크 대학교 박사 연구원이자 전 태양광 개발자 및 에너지부 특별 고문이었던 타일러 노리스는 말했습니다. 이는 비용이 통제 불능으로 치솟는 것을 막기 위해 필요한 데이터 센터와 유틸리티 간 협력의 첫 번째 사례이기 때문입니다.