AIの環境負荷(Environmental Impact of AI)
AI技術は急速に進化し、私たちの生活に多大な影響を与えていますが、その背後には膨大なエネルギー消費や資源使用の問題が潜んでいます。
例えば、機械学習モデルの訓練や推論処理は、大量の電力を消費。この電力の多くは依然として化石燃料を原動力としており、CO2排出の増加が懸念されています。また、AIシステムを稼働させるためのデータセンターでは、冷却のために膨大な水資源を消費することが問題視されています。
本記事では、AIの環境負荷の現状や、その背景、企業・団体の取り組み、私たちにできることなどについて紹介していきます。
目次
数字で見るAIの環境負荷(Facts & Figures)
- 2025年2月時点で、ChatGPTの週間アクティブユーザー数は4億人を超えている(ロイター)
- 2024年12月時点で、ChatGPTが1日に処理するプロンプトの数は10億に達した(OpenAI X)
- ChatGPTは、1回の質問で約2.9Whの電力量を消費する。これは、Google検索の電力量(約0.3Wh)の約10倍に相当する。また、オリジナルミュージックや写真、ビデオなどを生成する場合はさらに消費量が大きい(EPRI)
- 2022年の世界全体のデータセンターでの電力消費量は約460TWhであったが、2026年にはその倍以上の約1,000TWh(約1兆kWh)に達する可能性がある。この数値は、日本全体の年間総消費電力量に匹敵し、要因としてAIの拡大が挙げられている。(国際エネルギー機関:IEA)
- グーグル(Google)が全ての検索に生成AIを統合した場合、年間電力消費量は約290億kWh(29TWh、1テラワット時は10億kWh)に達すると予測されている(Cell Press)
- 調査会社SemiAnalysisの報告によれば、OpenAIはChatGPTの運用のためにNVIDIAのHGX A100サーバー3,617台(合計28,936基のGPU)を使用しており、その1日あたりの電力消費量は564MWhと推定されている(SemiAnalysis)
- AI研究プラットフォームのHugging Faceによると、同社が開発した「BLOOM」モデル(BigScience Large Open-Science Open-Access Multilingualモデル)は、学習時に433MWhの電力を消費。さらに、その他のLLMについても、以下のようなエネルギー消費量が報告されている(Hugging Face)
-
- GPT-3(ChatGPTの基盤モデル):1,287 MWh
- Gopher(DeepMind開発):1,066 MWh
- Open Pre-trained Transformer(OPT)(Meta開発):324 MWh
-
- MicrosoftのAI事業は年間130億ドルの収益を上げ、前年から175%の成長を遂げた
(The Gurdian) - MetaはAIに対する取り組みを加速させるため、2025年中に600億ドル(約9兆3300億円)から650億ドル(約10兆1000億円)の設備投資を行うと発表した(Forbes)
- Microsoftの最先端データセンターでGPT-3のトレーニングを行う際、70万リットルの淡水(冷却水)が蒸発すると推定されている。これは原子炉の冷却水タンクを満たす量に匹敵する(arXiv)
- GPT-3に25〜50回の質問すると、500mlの水(ペットボトル1本分)を消費する。この傾向が続くと、2027年までにAIの世界的な需要による取水量が42億~66億立方メートルに達すると予測されている。これは、デンマーク4~6か国分、またはイギリス全体の年間取水量の約半分に相当する(arXiv)
AIの環境負荷の現状(Current Situation)
急拡大するAI市場
スタートアップから大企業まで、AI関連のサービスやプロダクト開発が爆発的に増加しています。クラウド事業者によるデータセンターの増設は、その象徴的な例といえるでしょう。推論リクエストの数が増えるほど、背後で稼働するサーバー群の電力消費も比例して拡大していきます。また、CB Insightsの調査によると、AI関連スタートアップへのグローバル投資額は過去数年で数倍規模に伸びており、市場の活況がエネルギー消費増につながっているといえます。
THE TIMESの記事によれば、Meta、Microsoft、GoogleのAIテクノロジーに関連する水使用量はいずれも2022年以降17~22.5%増加していると報じられています。例えば、ChatGPTを使って100語程度のメールを作成するだけで、飲料水500ml分と同じ量の水が使われ、iPhone Pro Maxを7回充電できるほどのエネルギーが消費されるといいます。私たちが日々の仕事で「数分」を節約するために使うAIが、どれだけ大きな環境負荷をもたらしているか。それは多くの人にとって、想像を超えるものでしょう。
Googleは2019年以降、温室効果ガスの排出量を48%増加させており、他のハイテク企業もCO2排出削減目標を次々と下方修正したのは特徴的な出来事でした。
サステナブルAIの登場
「AIは環境に悪い」このイメージを変えようと、研究コミュニティや企業が注目し始めたのが、「グリーンAI」や「サステナブルAI」と呼ばれるアプローチです。モデルの軽量化や再生可能エネルギーの導入、効率的な冷却技術の開発など、さまざまな取り組みが進められています。再生可能エネルギーへの切り替えや効率的なモデルへのシフトなど、取り組みが少しずつ広がっています。
2025年初旬、Google、Microsoft、Amazonの各社がAIデータセンターのエネルギー需要に対応するため、立て続けに原子力発電への取り組みを発表したことが話題になりました。いずれも新しい原子力発電所の買収、投資、および建設支援への大規模な取り組みを発表しています。
技術ジレンマ
AIは交通やエネルギー、医療などの分野で効率化を進め、社会全体のCO2排出量削減に貢献するポテンシャルがあります。「テクノロジーは気候危機のゲームチェンジャーになりうる」という見方もあり、AIテクノロジーによって天然資源管理が最適化され、それによってCO2排出が削減される可能性もあります。
たとえば、自動運転技術が普及すれば、交通事故の減少だけでなく、渋滞緩和による燃料消費削減も期待できます。しかし、そのAIを開発・運用するために、大量の電力・資源を必要とするというトレードオフが存在するのも事実です。
一方、主要なAI企業のほとんどが拠点を置く米国は、いかなる犠牲を払ってでも成長を受け入れる意向を示しています。米国の政治動向に目を向けると、ドナルド・トランプ大統領がエネルギー緊急事態宣言の活用を示唆し、AI用のデータセンターを迅速に承認する方針を発表しました。バックアップ電源として石炭火力の使用も許容し、環境アセスメントやその他の許認可手続きを高速化しようとする動きもあります。
さらに、1億ドル(日本円で約1,000億円)を超える国内投資に対しては、環境審査や許認可の迅速化を約束するといった発言も報じられています。こうした政策は一見、AI産業を強力に後押しする一方で、再生可能エネルギーへのシフトよりも化石燃料への依存を深めるリスクや、CO2排出量増加を招く可能性が懸念されています。
AIが生み出す不平等性
AIの「環境負荷」といえば、電力やCO2の排出を思い浮かべることが多いですが、実際にはそれだけにとどまりません。AI Now Instituteが2023年に発表したレポートによると、AI技術の開発や運用に伴う環境コストは、地域によって不均衡に分布しており、これは植民地主義の構造に似ていると指摘されています。特に、グローバルサウスと呼ばれる地域では、その影響が顕著です。
例えば、フィンランドにあるGoogleのデータセンターは97%がカーボンフリーで運営されていますが、これは豊富な水力発電や風力発電を利用できるためです。一方、アジアや中東、北アフリカなどの地域では、再生可能エネルギーの導入が進んでおらず、依然として化石燃料に依存しているため、環境負荷が高くなっています。
さらに、データセンターは大量の計算を行うため、高度な冷却が必要です。フィンランドのような冷涼な気候では、外気を利用して冷却できるためエネルギー消費が抑えられますが、アジアや中東、北アフリカでは温暖または乾燥した気候のため、冷却には大量のエネルギーや水を使用せざるを得ません。そのため、これらの地域では冷却による水消費が不均衡に増加しています。
このように、AIの環境負荷は地域ごとに大きな違いがあり、資源の利用状況やインフラの整備状況、気候条件などが影響を与えているのです。
AIの環境負荷の背景・要因(Background & Factors)
2024年7月現在、AIによるエネルギー消費量は世界全体の排出量の約2~3%に過ぎないと推定されます。ただし、Googleでの検索と比較して、ChatGPTクエリは10倍の電力を消費しており、AIが何に置き換わったのかに注目すると環境負荷が増えていると言えるでしょう。
このようにAIが、従来の検索と比較して膨大なエネルギーを要する要因は、生成AIが「既存のデータを学習することで」文章や画像を生成していることです。この学習には高い演算能力を持つ装置が必要となり、これを支える大規模なサーバーも必要になります。このサーバーやネットワーク機器を管理・運用しているのがデータセンターなのです。
データセンターは世界の多くの地域で電力需要を押し上げており、データセンターやAI、暗号通貨部門による電力消費は、2026年までに倍増する可能性があります。世界全体のデータセンターの総電力消費量は2022年で推定460テラワット時(TWh)、2026年には1,000TWh以上に達する見込みがあるのです。この需要は日本全体の電力消費量とほぼ等しいとされています。
また近年、大量のテキストデータとディープラーニング技術を用いた「大規模言語モデル(LLM)」が登場し、中国の人工知能研究所・DeepSeekが台頭するように、今後もAIの能力改善に向けた競争は激しくなるでしょう。こうしてAIが高度化するほど、その環境負荷は上昇し続けると推測されます。
しかし、ここまで加速度的にAIが普及する以前に制定されたSDGsやパリ協定に基づく気候アクションは、その影響力を考慮し切れていない可能性が高いでしょう。AIは計測対象として十分に検討されておらず、既存の目標やアクションリストを見直さなくては、巨大な環境破壊要因を見落とすことになりうるのです。
AIの性能が上がるにつれて環境負荷を軽減できるとの見方もあります。しかし多くの場合、テクノロジーの環境負荷が改善しても、それを上回るスピードで使用量が増加し結果的に環境負荷が増える「リバウンド効果」が伴います。AIやデータセンターそのものに加えて、その使用方法についてもAIの環境負荷要因として留意することが欠かせません。
AIの環境負荷への対策・取り組み(Action)
エネルギーのクリーン化
AIの計算負荷を支えるデータセンターのエネルギー源をクリーンにする取り組みについて、以下のような施策が進められています。
再生可能エネルギーの利用拡大
データセンターの運用において、風力、太陽光、水力などのクリーンエネルギーを活用する動きが広がっています。例えば、Googleはテキサス州で米国最大級の太陽光プロジェクトに投資し、875メガワットのクリーンエネルギーを生産しています。この電力の85%は、テキサス州内のGoogleのデータセンターとクラウドコンピューティングに使用され、残りは州の電力網に供給されています。
データセンターの設置場所の最適化
データセンターの冷却コストを抑えるため、寒冷地域(北欧、カナダなど)への設置が検討されています。寒冷地では、外気冷却を活用することで、冷却に必要な電力を抑えることが可能です。これは、自然の気温を利用してエネルギー削減を実現する手法であり、データセンターの省エネに寄与しています。
データセンターの冷却技術の改善
データセンターの冷却に必要なエネルギーや水の消費量を抑えるため、以下の技術が導入されています。
液冷技術の導入
冷却水を循環させてサーバーを冷却する液冷技術は、空冷方式よりも効率的に排熱を管理できます。例えば、Googleは最新の機械学習チップであるTPU 3.0に液冷を採用。これにより、従来の空冷方式よりも効果的な冷却が可能となり、エネルギー効率が向上しています。
自然冷却の活用
北欧やカナダなどの寒冷地域にデータセンターを設置し、外気冷却を活用することでエネルギー使用を削減する取り組みが進められています。例えば、Googleはベルギーに冷房装置を持たないデータセンターを運用開始し、外気温が高いときには他のデータセンターに負荷を切り替えることで、冷却にかかるエネルギーを削減しています。
排熱のリサイクル
データセンターの排熱を再利用し、都市の暖房などに活用する取り組みも行われています。例えば、Facebookはデンマークのオーデンセにあるデータセンターで、サーバーからの排熱を地域暖房システムに供給しています。このシステムは、データセンター内で発生した熱を水コイルで回収し、ヒートポンプで温度を上げた後、地域の家庭に供給する仕組みです。
AIモデル自体の効率化
AIの計算量を削減し、必要なエネルギーを抑えるための技術開発について、以下の取り組みが進められています。
軽量化技術の導入
モデルの蒸留(Distillation):大規模なAIモデル(教師モデル)の知識を、小型のモデル(生徒モデル)に移行する手法。これにより、生徒モデルは教師モデルと同等の性能を維持しつつ、計算コストを削減できます。
量子化(Quantization):モデルの重みやアクティベーションを低精度の数値(例えば、32ビットから8ビット)に変換することで、メモリ使用量と電力消費を削減する手法。これにより、計算効率が向上し、エネルギー消費の削減が期待できます。
スパース化(Pruning):モデル内の重要度が低い重みやニューロンを削除することで、パラメータ数を減少させ、計算コストを最適化する手法。これにより、モデルの軽量化と処理の高速化が期待できます。
ハードウェアの最適化
省エネ対応のプロセッサの開発と導入が進められています。例えば、NVIDIAのH100 Tensor Core GPUは、卓越した性能、スケーラビリティ、およびセキュリティを提供し、あらゆるワークロードに対応しています。
分散学習とフェデレーション学習
計算を複数の端末やクラウドで分散させることで、エネルギー消費の最適化が図られています。特に、フェデレーション学習では、各デバイス上でモデルの学習を行い、データセンターへの負担を軽減します。これにより、データのプライバシーを保護しつつ、エネルギー効率の向上が期待できます。
環境負荷の測定と透明化
AI開発・運用に伴う環境負荷を数値化し、削減の指標とする動きも加速しています。
CO2排出量の可視化ツールの導入
AIのトレーニングや推論時のエネルギー消費とCO2排出量を測定し、最適化する仕組みが構築されています。例えば、Google Cloudは「Carbon Footprint」というツールを提供しており、クラウド利用による二酸化炭素排出量を可視化し、ESGレポート向けに測定、報告、開示を支援しています。
また、Amazon Web Services(AWS)も「Customer Carbon Footprint Tool」を提供しており、AWSのワークロードに関連する推定炭素排出量の概要をダッシュボード形式で提供しています。
規制や基準の策定
AI開発に伴う環境負荷への対応として、EUや各国政府は持続可能なAI開発を促進するための規制や基準の策定を進めています。例えば、EUは「AI規制法(AI Act)」を策定し、AIシステムのリスクレベルに応じた規制を導入しています。また、AIのエネルギー消費と環境負荷に関するデータセンターのエネルギー・水使用量や炭素排出量の報告を義務付けることが提案されており、透明性向上が求められています。
日本でも、経済産業省と総務省が「AI事業者ガイドライン」を策定し、持続可能なAIの運用指針を示しています。さらに、AIのエネルギー効率性を評価する研究が進められ、持続可能なAI設計に関する提言も行われています。
AIの環境負荷に関して私たちができること(What We Can Do)
では、AI使用による環境負荷を減らすために、私たちには何ができるのでしょうか。個人レベルでも意識的な行動をとることで、AI技術の使用に伴うエネルギー消費や二酸化炭素排出量を抑えることが可能です。ここでは、実践しやすい具体的な対策をいくつか紹介します。
利用目的をはっきりさせる
まず重要なのは、「この質問は本当にAIに聞くべきなのか?」と立ち止まって考える姿勢です。情報収集やタスク実行には、AIでなくても解決できるものもあります。たとえば、単純な計算や一般的な事実確認であれば、検索エンジンや既存のツールで十分対応できる場合もあります。利用の目的を明確にすることで、無駄なリクエストを減らし、結果として環境負荷を抑えることにつながります。
必要な質問だけをする
AIチャットを使う際、ついつい雑談的な使い方をしてしまうこともありますが、これも知らず知らずのうちにエネルギー資源を消費しています。事前に自分の問いを簡潔にまとめたり、複数の質問を一度に行うなど、効率的な使い方を心がけることが、処理回数の削減に役立ちます。
複数のAIツールを比較検討する
AIサービスにはさまざまな種類があり、その性能や処理能力、消費エネルギーもツールによって大きく異なります。利用する前に、「この目的にはもっと軽量なツールで十分では」と考えてみることも大切です。たとえば、大規模言語モデルではなく、特定の用途に特化した小型のAIツールや、ローカルで動作するアプリケーションを活用することで、通信や処理の負荷を軽減できる場合があります。
軽量なモデルを選択する
AIサービスの中には、複数のモデルやバージョンが用意されていることがあります。例えば「標準モデル」と「高性能モデル」といった選択肢がある場合には、処理の難易度や必要性に応じて、より軽量で環境負荷の少ないモデルを選ぶことが推奨されます。必ずしも高性能なモデルが必要なケースばかりではありません。ちょっとした文章の校正やアイデア出しなど、シンプルなタスクであれば、軽量モデルで十分に事足りる場合も多くあります。
過去の回答内容やキャッシュを活用する
AIとのやり取りで得られた回答は、一度きりで使い捨てにするのではなく、再利用できないかを検討してみましょう。同じ質問を繰り返し行う代わりに、以前のやり取りを保存しておき、必要に応じて参照することで、処理回数を抑えることができます。また、チームやコミュニティ内で有益な回答を共有することで、同じ情報を何度も個別に取得する必要がなくなり、全体としてエネルギー消費を削減する効果も期待できます。
AIに関連する記事の一覧
【参照サイト】RESEARCH CBINSIGHT
【参照サイト】Why AI is going nuclear | VentureBeat
【参照サイト】So much for green Google – emissions rise 48% since 2019 • The Register
【参照サイト】MIT Technology Review
【参照サイト】The role of artificial intelligence in achieving the Sustainable Development Goals | Nature Communications
【参照サイト】データセンターの消費電力問題と省エネ対策【トゥモロー・ネット テックブログ】
【参照サイト】「安全なデータ利活用のための高度な分散処理などに 関する研究領域」に関して
【参照サイト】水平フェデレーテッドラーニングのためのコスト効率の良い特徴選択 – FmRead学術フロンティア
【参照サイト】連合学習とは?Federated Learningの基礎知識をわかりやすく解説
【参照サイト】Call to make tech firms report data centre energy use as AI booms | Artificial intelligence (AI) | The Guardian