2025年7月8日 星期二

Asking generative AI could come with hidden environmental costs

 Recently CNN.co.jp reported the following:

生成AIへの質問、隠れた環境コストがかかる可能性も

2025.06.24 Tue posted at 19:34 JST

  (CNN) 仕事のメールに返信したり、結婚の誓いを作成したりと、生成AI(人工知能)は多くの人々の生活において頼りになる副操縦士だ。だが、AIが問題を解決するたびに隠れた環境コストが積み重なっていることを示す研究結果が増えている。

AIに出す指示(プロンプト)は「トークンID」と呼ばれる数字の集まりに分解され、石炭火力発電所や天然ガス発電所によって稼働する巨大なデータセンター(フットボールの競技場より大きなものもある)に送られる。そこでは、多数の大型コンピューターが何十回もの高速計算を行い、答えを作り出す。

引用されることの多い米電力研究所(EPRI)の推計によれば、そうしたプロセス全体を完了するには通常のグーグル検索よりも最大10倍のエネルギーが必要になる可能性がある。

それでは、AIに与える質問の一つひとつはどれほどの損害をもたらすのだろうか。これを調べるためドイツの研究者は、14の大規模言語モデル(LLM)を使ったAIシステムに対して、自由回答式と多肢選択式の質問の両方で試験を行った。その結果、複雑な質問は、簡潔な回答の質問と比較して最大6倍の二酸化炭素(CO2)の排出につながった。

さらに、より推論能力の高い「より賢い」なLLMは同じ質問に答える際、より単純なシステムよりも最大50倍多くの二酸化炭素を排出したという。

「フロンティアズ・イン・コミュニケーション」に掲載された論文の主筆者で、ミュンヘン応用科学大学の博士課程の学生、マキシミリアン・ダウナー氏は「これは、エネルギー消費とモデル性能の精度の間にトレードオフ(一方を立てれば他方が立たなくなる)関係があることを示している」と述べた。

通常は、こうしたより賢いエネルギー集約的なLLMは、より小規模で簡潔なモデルよりも、トークンIDの処理に使われる「パラメーター」が数百億個多くなる。

「脳内の神経回路網のようなものだと考えてほしい。神経の接続が多いほど、質問に答えるための思考能力が高まる」(ダウナー氏)

 

二酸化炭素排出を減らすには

ダウナー氏によれば、複雑な質問には、多くのAIモデルが長文での説明を提供するよう訓練されていることもあり、より多くのエネルギーが必要となるという。AIのチャットボットに代数の問題を解いてもらうと、答えを見つけるまでの手順を逐一説明してくれるかもしれない。

「AIは特にユーザーが『お願いします』や『ありがとう』と丁寧に話す場合、丁寧な対応に多くのエネルギーを費やす。しかし、これは返答をさらに長くし、それぞれの単語を生成するのにさらに多くのエネルギーを消費する」(ダウナー氏)

こうしたことから、ダウナー氏は、ユーザーがAIとコミュニケーションを取る際には、より率直であることをユーザーに勧めている。希望する回答の長さを1~2文におさえるか、説明は全く不要だと伝えるのがいいという。

AI企業「ハギング・フェイス」のサーシャ・ルッチオーニ氏は、最も重要なのはダウナー氏の研究が、すべてのAIモデルが同じように作られているわけではないことを強調している点だと述べた。二酸化炭素の排出量を削減したいと考えているユーザーは、どのタスクにどのモデルを選択するのかをより慎重に検討するといい。

複雑なコーディングの問題を日々解いているソフトウェア技師なら、コーディングに適したAIが必須かもしれない。しかし、宿題を手伝ってほしいと思う普通の高校生にとって、強力なAIに頼るのは原子力発電で稼働するデジタル電卓を使うようなものだ。

ダウナー氏は、同じAI企業でも提供されるモデルによって推論能力が異なる場合があるので、自身の必要性に最適なものを調べるべきだと指摘した。

ルッチオーニ氏は、可能であれば、簡単なタスクを実行する際には、インターネットの百科事典や携帯電話の電卓といった基本的な情報源を活用することを勧めている。

Translation

Asking generative AI could come with hidden environmental costs

 (CNN) Whether it's answering work emails or writing wedding vows, generative AI was the trusty co-pilot in many people's lives. But a growing body of research showed that every time when AI solved a problem, hidden environmental costs piled up.

Our instructions (prompts) gave to AI were broken down into a string of numbers called "token IDs" and sent to gigantic data centers (some bigger than a football field) powered by coal-fired or natural gas plants. There, dozens of big computers run dozens of rapid calculations to produce the answer.

According to a commonly cited estimate from the Electric Power Research Institute (EPRI), completing that whole process might need up to 10 times more energy than a typical Google search.

So, how much damage could each question asked of AI would be caused? To find out, German researchers tested the AI systems that used 14 large language models (LLMs) with both open-ended and multiple-choice questions. They found that complex questions led to up to six times more carbon dioxide (CO2)emissions than questions with short answers.

What's more, "smarter" LLMs with better reasoning abilities emitted up to 50 times more carbon dioxide than simpler systems when answering the same question.

Maximilian Downer, a doctoral student at Munich University of Applied Sciences and leading author of a paper published in Frontiers in Communication said "This shows that there is a trade-off (if you pick one, you cannot pick the other) between energy consumption and the accuracy of the model performance."

Typically, those smarter, more energy-intensive LLMs had tens of billions more "parameters" to process token IDs than smaller, simpler models.

"Think of it like a neural network in your brain. The more neural connections you have, the more thinking power you have to answer a question," (Downer said)

 

How to reduce carbon dioxide emissions

Downer said complex questions required more energy, in part because many AI models were trained to provide lengthy explanations. When an AI chatbot was asked to solve an algebra problem, it might walk you through the steps it took to find the answer.

"AI spends a lot of energy being polite, especially when users say 'please' and 'thank you.'  Moreover, this made the reply even longer and consumed more energy to generate each word." (Downer said)

For this reason, Downer encouraged users to be more forthright when communicating with AI, to say limiting the length of the desired answer to one or two sentences, or to say you didn't need any explanations on that at all.

Sasha Luccioni of AI company Hugging Face said that most importantly, Downer's research had highlighted that not all AI models were created equal. Users who wanted to reduce their carbon footprint should be more thoughtful about which model they would choose for which type of task.

If you're a software engineer engaged in solving complex coding problems every day, an AI that's good at coding might be essential. But for an average high school student looking for help with their homework, to rely on a powerful AI would be like using a digital calculator powered by nuclear energy.

Downer noted that models offered by the same AI company might have different inference capabilities, so you should research on which one could best suit your needs.

Luccioni recommended that when performing simple tasks, to use basic information sources, such as an online encyclopedia or a calculator on your phone whenever possible.

              So, AI requires more energy to deal with complex questions. It is also noted that not all AI models are created equal. Users who want to reduce their carbon footprint should be more thoughtful about which model they should choose with regard to the type of task on hand in order to save energy.

Note:

1. A large language model (LLM) is a language model trained with self-supervised machine learning on a vast amount of text, designed for natural language processing tasks, especially language generation. The largest and most capable LLMs are generative pretrained transformers (GPTs), which are largely used in generative chatbots such as ChatGPT, Gemini or Claude. LLMs can be fine-tuned for specific tasks or guided by prompt engineering. These models acquire predictive power regarding syntax, semantics, and ontologies inherent in human language corpora, but they also inherit inaccuracies and biases present in the data they are trained in. (Wikipedia)

沒有留言:

張貼留言