論文の概要: Small Talk, Big Impact: The Energy Cost of Thanking AI
- arxiv url: http://arxiv.org/abs/2601.22357v1
- Date: Thu, 29 Jan 2026 22:04:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.089355
- Title: Small Talk, Big Impact: The Energy Cost of Thanking AI
- Title(参考訳): 小さくて大きなインパクト:AIに感謝するエネルギーコスト
- Authors: Julien Delavande, Regis Pierrard, Sasha Luccioni,
- Abstract要約: 実世界の会話トレースと詳細なエネルギー測定を用いて,入力長,出力長,モデルサイズがエネルギー利用に与える影響を定量化する。
本研究は,より持続的で効率的なLCMアプリケーションを構築するための実用的な知見を提供する。
ユーザの採用が増加し、何十億ものプロンプトが毎日処理されるようになると、このコストの理解と軽減が重要になります。
- 参考スコア(独自算出の注目度): 4.513690948889834
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Being polite is free - or is it? In this paper, we quantify the energy cost of seemingly innocuous messages such as ``thank you'' when interacting with large language models, often used by users to convey politeness. Using real-world conversation traces and fine-grained energy measurements, we quantify how input length, output length and model size affect energy use. While politeness is our motivating example, it also serves as a controlled and reproducible proxy for measuring the energy footprint of a typical LLM interaction. Our findings provide actionable insights for building more sustainable and efficient LLM applications, especially in increasingly widespread real-world contexts like chat. As user adoption grows and billions of prompts are processed daily, understanding and mitigating this cost becomes crucial - not just for efficiency, but for sustainable AI deployment.
- Abstract(参考訳): 丁寧であることは自由である - それともそれは?
本稿では,大規模言語モデルと対話する際,例えば 'thank you' のような一見無害なメッセージのエネルギーコストを定量化する。
実世界の会話トレースと詳細なエネルギー測定を用いて,入力長,出力長,モデルサイズがエネルギー利用に与える影響を定量化する。
丁寧さは私たちのモチベーションの例であるが、典型的なLCM相互作用のエネルギーフットプリントを測定するための制御され再現可能なプロキシとしても機能する。
我々の発見は、より持続的で効率的なLLMアプリケーションを構築するための実用的な洞察を提供する。
ユーザの採用が増加し、何十億ものプロンプトが毎日処理されるようになると、このコストの理解と軽減が重要になります。
関連論文リスト
- Reconsidering Conversational Norms in LLM Chatbots for Sustainable AI [2.198430261120653]
相互作用レベルの挙動はLLM系システムの環境影響を形作る過小評価要因であると考えられる。
拡張された会話パターンがトークン生成を増大させ、推論の計算コストを上昇させることを示す。
日常的なユーザの習慣は、ほとんど定量化されない方法で累積的な運用需要に寄与する、と我々は主張する。
論文 参考訳(メタデータ) (2025-12-16T18:38:11Z) - KnowMT-Bench: Benchmarking Knowledge-Intensive Long-Form Question Answering in Multi-Turn Dialogues [58.305425399644086]
MT-LFQA(Multi-Turn Long-Form Question Answering)は、知識集約ドメインにおけるLLM(Large Language Models)の重要な応用パラダイムである。
textbfKnowMT-Benchは、知識集約的な分野にわたるLLMのためのMT-LFQAを体系的に評価するために設計された、テキストファーストなベンチマークである。
論文 参考訳(メタデータ) (2025-09-26T04:32:29Z) - Mitigating the Carbon Footprint of Chatbots as Consumers [7.237493755167876]
本稿では,大規模言語モデル(LLM)の基本機能に関連する環境影響について検討する。
実世界のシステムから匿名化されたトークンデータを用いて会話パターンを解析した後、より持続可能な方法でチャットボットをどのように使用できるかを個人に推奨する。
シミュレーションに基づいて、このような生態学的ジェスチャーの導入による貯蓄ポテンシャルを推定する。
論文 参考訳(メタデータ) (2025-07-29T19:00:43Z) - Edge-Optimized Deep Learning & Pattern Recognition Techniques for Non-Intrusive Load Monitoring of Energy Time Series [0.0]
非侵入負荷モニタリング(NILM)は、家電レベルのデータに家庭のエネルギー使用量を分散することで、有望なソリューションを提供する。
現在のデータセットは、主に米国や英国のような地域を表しており、地中海のような地域は、あまり表現されていない。
この論文は、これらの問題に重要な貢献で取り組みます。
論文 参考訳(メタデータ) (2025-05-07T12:38:54Z) - Green Prompting [2.377736044164336]
大規模言語モデル (LLM) は、検索エンジン、コード生成、テキスト生成にまたがる様々な領域で広く使われている。
本研究は, LLM推定エネルギーコストに直接影響する刺激特性と応答特性の相違について実験的に検討した。
論文 参考訳(メタデータ) (2025-03-09T19:49:31Z) - Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - X-TURING: Towards an Enhanced and Efficient Turing Test for Long-Term Dialogue Agents [56.64615470513102]
チューリングテストは、自然言語の会話においてAIが人間のような振る舞いを示すかどうかを調べる。
従来の設定では、各参加者は一度に1つのメッセージに制限される。
本稿では,textitburstダイアログパターンを用いて,元のテストを強化するtextbftextscX-Turingを提案する。
論文 参考訳(メタデータ) (2024-08-19T09:57:28Z) - Check Your Facts and Try Again: Improving Large Language Models with
External Knowledge and Automated Feedback [127.75419038610455]
大規模言語モデル(LLM)は、ダウンストリームタスクの多くに対して、人間のような、流動的な応答を生成することができる。
本稿では,プラグ・アンド・プレイモジュールのセットでブラックボックスのLSMを増強するLSM-Augmenterシステムを提案する。
論文 参考訳(メタデータ) (2023-02-24T18:48:43Z) - PLACES: Prompting Language Models for Social Conversation Synthesis [103.94325597273316]
我々は、プロンプトを用いてソーシャルな会話データセットを合成するために、専門家による会話の小さなセットをコンテキスト内例として使用します。
人工会話の徹底的な評価を,人間による会話と比較して行った。
論文 参考訳(メタデータ) (2023-02-07T05:48:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。