サム・アルトマン「ChatGPTは環境にやさしい」と主張(そんなわけない)
本当なのかな…?(いやいや、そんなわけない)
OpenAIの創業者、サム・アルトマンが先日公開した自身のブログにて、ChatGPTへの1回の質問で使用される電力エネルギーの使用量について、社内データを引用し、「1プロンプトにつき、約0.34Whで、高効率の電球を数分使う程度」と発表。
さらに、データセンターの冷却に使われる水の使用量については「ChatGPTに大学生がレポートを書かせたとして、1人あたり約0.000085ガロン、つまりティースプーン15分の1杯分程度」とし、これまで伝えられてきた過去の複数の研究結果を大幅に下回る数字を提示しました。
AI使用による水の消費量は年間で約1億1100万リットル
こうした疑わしい数値を提示しているにもかかわらず、アルトマンはその根拠となるデータや出典を一切示さず、米Gizmodoの取材に対してもノーコメントを貫いています。
もし彼の言葉通りの数値だったとしても、その総量は凄まじいことになります。OpenAIは2024年12月に週間のアクティブユーザーと1日のメッセージ数を発表。3億人にもおよぶユーザーが1日に10億ものプロンプトを打ち込んでいることが判明しています。単純計算すると、1日に約32万リットル(8万5000ガロン)、年間では約1億1100万リットル(3100万ガロン)にも達し、とてつもない水を消費していることになります。
ちなみにChatGPTはMicrosoft(マイクロソフト)のデータセンター上で稼働していますが、この施設はそもそも水の使用量が著しいことで知られています。OpenAIと提携するようになった2021年から2022年にかけて、特に水の使用量が急増していることも明らかになっています。そう考えると、これだけの使用量では済まなさそう…。
2023年末に発表されたカリフォルニア大学の研究者たちによる論文では、旧モデルであるGPT-3の10〜50回のクエリ処理に際し、0.5リットルの水を消費していたとされています。このデータを最も楽観的に見積もったとしても、 GPT-3は1日に約3100万リットル(818万ガロン)使用していたことになります。
現在はGPT-4.1にアップデートしており、より高性能で高負荷なモデルになっていますから、水の使用量もその比ではないことが予測されます。
モデルの規模が大きくなればなるほど、必要なエネルギーも増えていきます。こうした新たなAIモデルによる学習が環境に与える影響について、すでに複数の研究が行なわれており、モデルが高度化するたびに再学習が必要となるため、その度に電力消費量が増えていくことも示されています。
にもかかわらず、GPT-4.1の全プランにおいて、どれだけの水と電力が使用されているか、アルトマンが示した数値には内訳が一切明記されていないのです。
加えて、文章でのクエリ以上に多いとされるAIでの画像生成で使用するエネルギーについても、一言も触れられていません。
アルトマン「あらゆる種類の仕事がなくなるだろう」
アルトマンのブログはビッグテックの主張によく見られるように楽観的で、筋の通らない意見がほとんど。「データセンターの構築・管理体制は今後自動化されるだろうから、AIの利用コストの大部分がそのうち電気代だけになるはずだ」とも主張しており、データセンターの管理コストが劇的に下がることで、唯一電力消費だけがAI利用のコストとして残るようになると予見しています。
仮に彼の予見通りにうまくことが運んだとしても、現状の負担と、これから加速度的に進む地球温暖化への悪影響は避けられません。
今回のアルトマンのブログは、頭の固いビッグテックの超富裕者層が考える意見そのものとも言えます。彼は「あらゆる種類の仕事」がなくなるけれども、「世界はもっと急速に豊かになるので、これまで不可能だった政策に思い切って挑戦できるようになる」ため、問題ないとさえ言い放っています。いつからこんなに傲慢になったんだ…。
一方で「安全性に関する問題は解決しないといけない」とも語っているアルトマン。今はジョニー・アイブとともに何やら新しいことを始めようとしている様子ですが、果たしてAIに関連する問題を解決しようという気はあるんでしょうか…?