論文の概要: This Is Taking Too Long - Investigating Time as a Proxy for Energy Consumption of LLMs
- arxiv url: http://arxiv.org/abs/2603.15699v1
- Date: Mon, 16 Mar 2026 08:26:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:06.89461
- Title: This Is Taking Too Long - Investigating Time as a Proxy for Energy Consumption of LLMs
- Title(参考訳): 長すぎる - LLMのエネルギー消費のプロキシとしての時間調査-
- Authors: Lars Krupp, Daniel Geißler, Francisco M. Calatrava-Nicolas, Vishal Banwari, Paul Lukowicz, Jakob Karolus,
- Abstract要約: 大規模言語モデル(LLM)のエネルギー消費は、環境安定と資源利用に悪影響を及ぼすため、懸念が高まっている。
しかし、これらのエネルギコストは、特にAPIを通じてモデルにアクセスされた場合、ユーザにとって不透明なままである。
本研究では,API ベースの LLM の関連エネルギーコストを近似するプロキシとして,推定時間の測定について検討する。
- 参考スコア(独自算出の注目度): 9.089321870671297
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The energy consumption of Large Language Models (LLMs) is raising growing concerns due to their adverse effects on environmental stability and resource use. Yet, these energy costs remain largely opaque to users, especially when models are accessed through an API - a black box in which all information depends on what providers choose to disclose. In this work, we investigate inference time measurements as a proxy to approximate the associated energy costs of API-based LLMs. We ground our approach by comparing our estimations with actual energy measurements from locally hosted equivalents. Our results show that time measurements allow us to infer GPU models for API-based LLMs, grounding our energy cost estimations. Our work aims to create means for understanding the associated energy costs of API-based LLMs, especially for end users.
- Abstract(参考訳): 大規模言語モデル(LLM)のエネルギー消費は、環境安定と資源利用に悪影響を及ぼすため、懸念が高まっている。
しかし、これらのエネルギーコストは、特にモデルがAPIを通してアクセスされた場合、ユーザにとって不透明なままである。
本研究では,API ベースの LLM の関連エネルギーコストを近似するプロキシとして,推定時間の測定について検討する。
提案手法は, 実測値と局所的にホストされた等価値の実際のエネルギー測定値を比較して検討する。
以上の結果から,時間測定により,APIベースのLLMのGPUモデルを推定し,エネルギーコストの見積を行うことが可能であることが示唆された。
我々の研究は、APIベースのLCMの関連エネルギーコスト、特にエンドユーザに対する理解手段を作ることを目的としています。
関連論文リスト
- Densing Law of LLMs [81.06644243978101]
大規模言語モデル(LLM)は人工知能のマイルストーンとして登場し、モデルのサイズが大きくなるにつれてその性能が向上する。
本稿では,異なるスケールでLLMの品質を評価するための新しい指標として,「テクトキャパシティ密度」の概念を紹介する。
論文 参考訳(メタデータ) (2024-12-05T16:31:13Z) - TinyML NLP Scheme for Semantic Wireless Sentiment Classification with Privacy Preservation [49.801175302937246]
本研究は、エッジデバイスにプライバシ保護、エネルギー効率の高いNLPモデルをデプロイする際の洞察を提供する。
セマンティックスプリットラーニング(SL)を,エネルギー効率,プライバシ保護,小型機械学習(TinyML)フレームワークとして導入する。
その結果,FLの4倍,CLの約18倍の再現誤差の増加により,SLは計算能力とCO2排出量を著しく低減し,プライバシーの向上を図った。
論文 参考訳(メタデータ) (2024-11-09T21:26:59Z) - Hybrid Heterogeneous Clusters Can Lower the Energy Consumption of LLM Inference Workloads [0.2389598109913753]
大規模言語モデル(LLM)の訓練と使用には大量のエネルギーが必要である。
本稿では, LLM を運用するデータセンターにおけるエネルギー消費削減の課題に対処する。
本稿では,コストベースのスケジューリングフレームワークを用いて,ハードウェアアクセラレータ間でタスクを動的に割り当てるハイブリッドデータセンターモデルを提案する。
論文 参考訳(メタデータ) (2024-04-25T11:24:08Z) - Towards Greener LLMs: Bringing Energy-Efficiency to the Forefront of LLM Inference [6.68507515624183]
大規模な言語モデルを提供するためのデータセンター拡張の最大の課題として、エネルギーの可用性が最前線に現れている。
入力,モデル,サービスレベルの合意によっては,LLM推論プロバイダがエネルギー効率を高めるために利用できるノブがいくつか存在することを示す。
論文 参考訳(メタデータ) (2024-03-29T17:22:48Z) - Small Models, Big Insights: Leveraging Slim Proxy Models To Decide When and What to Retrieve for LLMs [60.40396361115776]
本稿では,スリムプロキシモデルを用いた大規模言語モデル (LLM) における知識不足を検知する新しい協調手法であるSlimPLMを提案する。
パラメータがはるかに少ないプロキシモデルを採用し、回答を回答としています。
ヒューリスティックな回答は、LLM内の既知の未知の知識と同様に、ユーザの質問に答えるために必要な知識を予測するのに使用される。
論文 参考訳(メタデータ) (2024-02-19T11:11:08Z) - From Words to Watts: Benchmarking the Energy Costs of Large Language
Model Inference [19.439683873290623]
大規模言語モデル(LLM)は、新しい生成能力によって、最先端の最先端をはるかに超えているため、人気が高まっている。
これらのモデルには計算上の課題、特に推論に必要な計算とエネルギーのコストが伴う。
論文 参考訳(メタデータ) (2023-10-04T17:41:59Z) - Enhancing Energy-Awareness in Deep Learning through Fine-Grained Energy
Measurement [11.37120215795946]
本稿では,詳細なディープラーニングエネルギー消費測定のためのフレームワークであるFECoM(Fine-fine Energy Consumption Meter)を紹介する。
FECoMは、静的計測を用いて、計算負荷安定性や温度など様々な要因を考慮し、エネルギー消費をきめ細かいレベルで測定する課題に対処する。
論文 参考訳(メタデータ) (2023-08-23T17:32:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。