AI는 디지털인데, 왜 ‘물’ 이야기를 할까요?
많은 분들이 “AI는 소프트웨어인데, 왜 환경 영향이 크냐”는 의문을 갖습니다.
겉으로 보기에는 텍스트를 주고받는 서비스일 뿐이지만, 그 뒤에는 거대한 데이터센터와 전력·냉각 인프라가 있습니다.
데이터센터는 24시간 서버를 돌리며 열을 식히기 위해 물을 사용합니다. 미국의 한 분석에서는 2021년 기준 미국 데이터센터가 하루 약 4억 4,900만 갤런, 연간 1,637억 갤런의 물을 사용하는 것으로 추산합니다.eesi.org 생성형 AI 붐으로 고성능 GPU 클러스터가 급증하면서, 이 수치는 계속 증가하는 추세입니다.
즉, “ChatGPT에 질문 한 번 하는 일”은 디지털 세계에서만 일어나는 일이 아니라, 현실의 강과 지하수, 정수장과도 얇게 연결되어 있습니다.
이 연결고리를 이해하는 것이 바로 오늘 주제의 출발점입니다.
데이터센터 한 곳이 마시는 물의 규모는 어느 정도일까?
수치를 한 번 살펴보면 감각이 조금 더 구체화됩니다.
- 환경 단체 Food & Water Watch는 2022년 Google, Microsoft, Meta 세 기업이 데이터센터와 AI 서버 냉각·전력 공급을 위해 사용한 물을 합산했을 때, 약 5,800억 갤런 수준으로 추정합니다. 이는 약 1,500만 가구의 연간 물 사용량에 해당하는 규모입니다.Food & Water Watch
- Google의 2024년 환경 보고서에 따르면, 전 세계 데이터센터는 2024년 한 해에 약 60억 갤런(약 227억 리터)의 물을 소비했으며, 이는 전년 대비 8% 증가한 수치입니다. 증가분의 주된 요인은 검색 고도화와 AI 서비스 확대입니다.Anadolu Ajansı
- 일부 지역에서는 데이터센터가 지역 상수도 사용량의 4분의 1 이상을 차지하는 사례도 보고됩니다.reccessary.com
이 수치들은 “AI 인프라=물 인프라”라는 사실을 시사합니다.
전기만이 아니라, 물도 함께 소비하는 구조인 것입니다.
또 한 가지 중요한 지점은 지역성입니다.
주(州) 단위·국가 단위로 보면 데이터센터 물 사용 비중이 몇 % 안 되어 보일 수 있지만, 사막 기후나 가뭄이 잦은 특정 도시·카운티에서 같은 규모의 물 사용은 주민·농업·생태계와 직접 경쟁하게 됩니다. 미국 서부·중남미·유럽 일부 지역에서, 데이터센터 유치와 물 부족 우려가 동시에 기사화되는 이유입니다.andthewest.stanford.edu+2Bloomberg+2
2023–2024년 기준 회사별 물 사용량 비교
단위는 이해를 돕기 위한 대략적인 상대 비교용입니다.
(리터 환산은 공식 수치를 단순 변환한 값입니다.)
| 회사 | 기준 연도 | 연간 ‘직접’ 물 사용량(대략) | 특이점 |
|---|---|---|---|
| 2023 | 약 64억 갤런 (242억 L) – 이 중 약 61억 갤런이 데이터센터(95%) | 2022년 대비 큰 폭 증가, AI 인프라 확대 영향이 크다고 분석됨gijn.org+1 | |
| 2024 | 약 81억 갤런 (307억 L) | 물 재충전 프로젝트로 45억 갤런(64%)을 상쇄했다고 주장Anadolu Ajansı+1 | |
| Microsoft | 2023 | 약 21억 갤런 (78억 L, 780만 m³) | 2021→2023 사이 약 66% 증가, OpenAI·Copilot 등 AI 워크로드가 주요 요인으로 지목DataCenterDynamics+2Futurism+2 |
| Meta | 2023 | 8억 1,300만 갤런 (31억 L) | 사용량의 95%가 데이터센터, WUE 약 0.20 L/kWhgijn.org+1 |
| AWS* | 내부 문서(2021 기준) | 약 77억 갤런 (291억 L) | 공식 보고서에는 절대값 미공개, 유출 문서에서 ‘primary water use’를 77억 갤런으로 추정가디안 |
| OpenAI | – | 연간 총량 불명 | 질의당 0.000085 갤런 수치는 있으나, 연간 합계나 모델별 수치는 미공개Sam Altman+1 |
* AWS 수치는 가디언이 보도한 내부 문서 기반 추정치로, 아마존이 공식 인정한 숫자는 아닙니다.가디안
“데이터센터 한 곳이 마시는 물”의 의미
위 숫자를 바탕으로 정리하면:
- 단일 기업의 연간 물 사용량이 이미 수십억 갤런(수십억 톤) 단위입니다.
- Google, AWS는 연간 70–80억 갤런급, Microsoft도 20억 갤런 수준으로 성장했습니다.Anadolu Ajansı+2Futurism+2
- 이 대부분이 “AI를 포함한 데이터센터 냉각”에 쓰입니다.
- Google·Meta의 경우 이미 95%가 데이터센터 용수라고 명시되어 있고,
- Microsoft·AWS도 비슷한 구조일 것으로 연구자들이 보고 있습니다.gijn.org+1
- 여기에 **간접 물 사용(전력 생산 과정)**까지 넣으면, 실제로는
- “기업이 공개하는 물 사용량 × 몇 배”에 달하는 물이 보이지 않는 곳에서 쓰이고 있다는 분석이 나옵니다.The Verge+1
결론적으로
“데이터센터 한 곳이 마시는 물”을 숫자로 환산하면,
도시 단위 상수도 시스템에 맞먹는 연간 물 사용량을 가지는 시설들이 글로벌 스케일로 수백 개 단위로 늘어나고 있는 상황으로 이해하는 것이 현실에 가깝습니다.
‘물 발자국(Water Footprint)’이라는 새로운 AI 지표
에너지와 탄소 배출량을 측정하는 지표는 이미 많이 알려져 있습니다.
물 사용에 대해서도 비슷한 개념이 등장합니다. 그중 하나가 WUE(Water Usage Effectiveness)입니다.
- WUE는 데이터센터가 1kWh의 IT 장비 에너지를 사용하기 위해 얼마나 많은 물(리터)을 쓰는지 나타내는 지표입니다.위키백과+2DataCenterKnowledge+2
- 공식은 단순합니다.
- WUE = (연간 데이터센터에서 사용한 물량 L) / (IT 장비 에너지 사용량 kWh)
- 값이 낮을수록 같은 컴퓨팅을 위해 덜 많은 물을 쓰는 효율적인 데이터센터라는 뜻입니다.
또한, 2023년 발표된 “Making AI Less Thirsty”라는 논문은 AI 모델의 물 발자국을 두 가지로 나눠 설명합니다.arXiv
- 직접 물 사용(Scope 1)
- 냉각탑·냉각수 시스템 등 데이터센터 현장 자체의 물 사용.
- 간접 물 사용(Scope 2)
- 데이터센터에 전기를 공급하는 발전소(특히 화력·원전)에서 전력을 생산하기 위해 사용하는 냉각수·공정수.
이 논문과 이후 분석들을 바탕으로 여러 매체가 “질문 몇 개에 생수 한 병이 든다”는 식의 설명을 내놓았지만, 연구자들과 업계는 이 수치에 대해서는 여전히 논쟁 중입니다. 일부 계산은 과장됐고, 일부는 보수적으로 잡혔다는 비판도 존재합니다.Business Energy UK+1
2025년 6월에는 OpenAI CEO가 평균적인 ChatGPT 질의 한 번에 약 0.000085갤런의 물(약 1/15 티스푼)과 0.34Wh의 전력을 사용한다는 수치를 공개했지만, 이 역시 계산 방식과 전제에 대해 외부 검증이 필요하다는 지적을 받고 있습니다.The Verge+1
중요한 것은, 정확한 숫자 하나를 외우는 것보다 “질문 하나에도 실제 물이 든다”는 인식을 갖는 것입니다.
그 인식이 있어야, AI 인프라 설계와 사용 패턴을 바꾸자는 논의가 시작되기 때문입니다.
역사 속 기술과 자원: AI는 새로운 증기기관인가?
역사적으로 보면, 새로운 기술 혁신은 항상 자원 사용 패턴의 변화를 동반했습니다.
- 증기기관은 석탄 소비를 폭발적으로 늘렸고, 산업혁명을 이끌었습니다.
- 전기·내연기관은 석유·가스 기반 산업 생태계를 만들었습니다.
- 인터넷은 데이터를 값싸게 만들었지만, 점점 더 많은 서버·네트워크 인프라를 요구했습니다.
AI 인프라도 같은 궤적 위에 있습니다.
다만 차이점이 있다면, 이 인프라가 훨씬 더 보이지 않는 방식으로 우리 일상과 연결된다는 점입니다.
과거에는 굴뚝·연기·소음이 눈에 보였습니다.
하지만 AI 데이터센터는 교외·사막·시야에서 벗어난 곳에 지어지는 경우가 많고, 이용자는 스마트폰 화면만 보고 서비스를 사용합니다.
이 보이지 않는성 때문에, “이 정도 편리함이면 환경 비용은 감수할 만하다”는 안일한 감각이 생기기 쉽습니다.
그러나 Google의 경우 2016년 대비 물 사용량이 3배 이상 증가했고, 2022~2023년 물 인출량의 87~89%가 데이터센터 목적이었다는 분석도 있습니다.NASUCA+1
역사적 관점에서 보면, AI 인프라는
“지식·언어·창의력을 증폭시키는 새로운 증기기관”
이면서 동시에
“보이지 않는 물·전기·토지를 집약적으로 사용하는 산업 설비”
이기도 합니다.
누가 혜택을 보고, 누가 비용을 내는가?
철학적·윤리적 논의는 보통 여기서 시작됩니다.
- 혜택의 지리적 분산
- 생성형 AI의 편리함은 전 세계 이용자에게 비교적 고르게 퍼져 있습니다.
- 한국에서, 유럽에서, 어디서든 동일한 API 엔드포인트를 사용합니다.
- 비용의 지리적 집중
- 그러나 데이터센터는 특정 지역, 특히 토지 가격이 낮고 전력·규제 조건이 유리한 곳에 집중됩니다.
- 미국 서부의 물 부족 지역, 중남미 우루과이, 영국·유럽 일부 농업 지역에서 “데이터센터 vs 지역 물 사용” 갈등이 이미 보도되고 있습니다.AP News+3Bloomberg+3Circle of Blue+3
철학적으로 보면, 이는 환경 정의(environmental justice) 문제와 닿아 있습니다.
- AI의 이익은 글로벌 사용자와 빅테크 주주에게 넓게 돌아가지만,
- 물 부족·전기 가격 상승·토지 이용 변화 같은 부작용은 특정 지역 주민·농가·생태계가 집중적으로 떠안습니다.
또 한 가지 층위는 세대 간 정의입니다.
지금 세대가 데이터·AI의 편의를 누리기 위해 수자원을 빠르게 소모한다면, 장기적인 물 관리와 기후 리스크는 다음 세대의 부담으로 넘어갈 수 있습니다.
이 지점에서 AI 기술은 단순한 “도구”를 넘어,
“우리가 자원과 미래를 어떻게 배분할 것인가”라는 철학적 질문의 대상으로 자리 잡습니다.
규제와 투명성: 왜 ‘숫자를 공개하라’는 요구가 커지는가?
AI 인프라의 물·에너지 사용에 대한 논쟁에서 가장 자주 등장하는 키워드는 투명성(transparency)입니다.
영국의 National Engineering Policy Centre(NEPC)는 2025년 보고서에서, 정부가 대형 기술 기업에게 데이터센터의 에너지·물 사용량, 탄소 배출을 의무적으로 공개하도록 규제해야 한다고 권고했습니다. Google과 Microsoft는 이미 연간 보고서에서 수백만~수천만 m³ 단위의 물 사용량 증가를 보고하고 있지만, 여전히 전체 그림을 파악하기에는 데이터가 부족하다는 지적입니다.가디안+1
핵심 쟁점은 다음과 같습니다.
- 기업 자발적 공시만으로는 실제 영향 파악이 어렵다.
- 데이터센터가 지역 상수도·지하수·하천에 미치는 영향은 국가 평균 수치로는 가려진다.
- AI 수요가 급격히 늘어나는 만큼, “규모 확대 전제의 성장 전략”이 아닌 “환경 한계 내에서의 성장 전략”이 필요하다.
정책·규제 관점에서는,
“AI 인프라 확대 속도를 수자원·전력망이 감당할 수 있는가?”
라는 질문을 던지고, 이에 맞춘 인허가·환경영향평가·공시 의무를 설계해야 합니다.
기술적 해법: ‘덜 목마른’ AI 인프라는 가능한가?
이제 “어떻게 줄일 것인가?”라는 질문이 따라옵니다.
현재 시도되고 있는 기술적·운영적 해법은 크게 네 가지 방향입니다.
1) 냉각 기술 혁신
- 기존: 냉각탑·증발 냉각 등 물을 직접 사용하는 방식이 주류였습니다.
- 변화: 일부 기업은 공랭, 해수·재생수 사용, 건식 쿨링 등 물 사용을 크게 줄이는 냉각 솔루션을 도입하고 있습니다.
- Microsoft는 2024년부터 신규 데이터센터에 “제로 워터(Zero-water) 냉각” 시스템을 도입하겠다고 발표하는 등, 물 사용 최소화를 전면에 내세우고 있습니다.datacentremagazine.com
2) 입지 선정의 재구성
- 물 스트레스가 높은 지역(사막·가뭄 지역)에서 데이터센터를 짓는 것에 대한 사회적 반발이 커지고 있습니다.
- 이에 따라 일부 기업은 상대적으로 물이 풍부하고 재생에너지 인프라가 좋은 지역으로 워크로드를 옮기거나, 동일한 지역 내에서도 지하수 의존도가 낮은 상수도·재생수 사용 계획을 제시하고 있습니다.Circle of Blue+1
3) 효율성 지표의 도입과 개선
- WUE, PUE(전력 사용 효율) 같은 지표를 통해 “얼마나 효율적으로 물·전기를 쓰는지”를 관리하는 추세입니다.Google Data Centers+2Komprise+2
- 궁극적으로는 “물 0 사용 냉각”을 목표로 하되, 각 지역의 기후·전력 구성에 맞춘 현실적인 목표치를 설정하는 것이 필요합니다.
4) 모델·사용 패턴의 효율화
- 더 적은 연산으로 비슷한 성능을 내는 모델 구조·압축·양자화 기법이 활발히 연구되고 있습니다.
- 클라이언트·온디바이스(on-device) 모델을 활용해, 모든 질의를 대형 클라우드 모델로 보내지 않는 전략도 거론됩니다.AP News
기술적 해법은 중요하지만, 그것만으로는 충분하지 않습니다.
결국 “얼마나 자주, 어떤 목적으로 AI를 쓰는가”라는 사용 행태의 문제도 함께 다뤄야 합니다.
사용자와 시민의 관점: 우리는 무엇을 할 수 있을까?
AI 인프라의 물 사용 문제는 기업·정부만의 과제가 아닙니다.
개별 사용자·시민의 선택도 미세하지만 실제 변화를 만들 수 있습니다.
- 질문 습관 정리
- 단순히 검색으로 충분한 정보인지, 굳이 대형 모델을 부를 필요가 있는지 한 번 더 점검합니다.
- 로컬·경량 모델 활용
- 가벼운 작업에는 PC·모바일에 탑재된 온디바이스 모델을 사용하는 것도 하나의 선택입니다.
- 정책·규제 논의 참여
- 데이터센터 유치·환경영향평가·물 사용 허가와 관련된 공청회·지역 여론 형성에 관심을 갖는 것이 중요합니다.
철학적 관점에서 보면,
“질문 한 번에 드는 물과 전기의 비용을 알고도, 같은 방식으로 계속 쓸 것인가?”
라는 자기 점검이 필요한 시점입니다.
우리가 던져야 할 핵심 질문들
정리하면, AI의 물 사용 문제는 단순한 “효율 개선 과제”를 넘어, 몇 가지 본질적인 질문을 던지게 합니다.
- 우리는 편리함과 생존 자원을 어떻게 저울질할 것인가?
- 이메일 한 통, 이미지 한 장, 채팅 몇 줄이 실제 물 사용과 연결되어 있다면, 어느 정도 선에서 “충분하다”고 말할 수 있을까요?
- AI 인프라의 혜택과 비용을 누구에게 어떻게 배분할 것인가?
- 글로벌 사용자와 특정 지역 공동체 사이의 부담을 어떻게 공정하게 나눌 수 있을까요?
- 기술 발전의 속도와 행성의 한계 사이에서 어떤 속도를 선택할 것인가?
- “가능한 만큼 빠르게”가 아니라 “지구가 감당할 수 있는 범위 안에서”라는 기준을 어디에 둘 수 있을까요?
AI를 둘러싼 철학적 논의는 종종 “AI가 생각하는가?” 같은 추상적인 질문에 머물렀습니다.
이제는 “AI가 사용하는 물과 에너지를 감안했을 때, 우리는 어떤 AI를 선택해야 하는가?”라는 훨씬 구체적인 질문이 필요해 보입니다.
meta_know 인사이트
AI 인프라의 물 사용 문제는 “AI vs 환경”의 단순 구도가 아니라, 기술·자원·정의의 교차점에 놓여 있습니다. 우리는 이제 “AI가 얼마나 똑똑한가”뿐 아니라 “AI가 얼마나 자원 효율적인가, 그리고 누구를 희생시키고 있는가”를 함께 묻는 프레임이 필요합니다. 앞으로 meta_know에서는 모델 성능 비교뿐 아니라, 에너지·물 사용을 포함한 인프라의 총체적 비용을 함께 살피는 관점을 계속 제안하려 합니다.
핵심 정리
- 생성형 AI와 데이터센터는 전기뿐 아니라 막대한 양의 물을 사용하며, 이는 특히 물 부족 지역에서 심각한 자원 경쟁을 초래할 수 있습니다.
- WUE 같은 지표와 “물 발자국” 개념은 AI 인프라의 물 사용을 측정·비교하는 첫걸음이지만, 아직 데이터 공개와 검증이 충분하지 않습니다.
- AI 혜택은 글로벌하게 분산되는 반면, 물·전기·토지 비용은 특정 지역에 집중되는 환경 정의 문제가 이미 나타나고 있습니다.
- 기술·정책·사용자 선택이 함께 바뀌어야 AI가 “더 똑똑하면서도 덜 목마른” 방향으로 진화할 수 있습니다.
