論文の概要: Comparing energy consumption and accuracy in text classification inference
- arxiv url: http://arxiv.org/abs/2508.14170v1
- Date: Tue, 19 Aug 2025 18:00:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.23816
- Title: Comparing energy consumption and accuracy in text classification inference
- Title(参考訳): テキスト分類推定におけるエネルギー消費と精度の比較
- Authors: Johannes Zschache, Tilman Hartwig,
- Abstract要約: 本研究は,テキスト分類推定におけるモデル精度とエネルギー消費のトレードオフを系統的に評価する。
精度の点で最高の性能モデルはエネルギー効率も良いが、より大きなLCMはより低い分類精度ではるかに多くのエネルギーを消費する傾向がある。
- 参考スコア(独自算出の注目度): 0.9208007322096533
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The increasing deployment of large language models (LLMs) in natural language processing (NLP) tasks raises concerns about energy efficiency and sustainability. While prior research has largely focused on energy consumption during model training, the inference phase has received comparatively less attention. This study systematically evaluates the trade-offs between model accuracy and energy consumption in text classification inference across various model architectures and hardware configurations. Our empirical analysis shows that the best-performing model in terms of accuracy can also be energy-efficient, while larger LLMs tend to consume significantly more energy with lower classification accuracy. We observe substantial variability in inference energy consumption ($<$mWh to $>$kWh), influenced by model type, model size, and hardware specifications. Additionally, we find a strong correlation between inference energy consumption and model runtime, indicating that execution time can serve as a practical proxy for energy usage in settings where direct measurement is not feasible. These findings have implications for sustainable AI development, providing actionable insights for researchers, industry practitioners, and policymakers seeking to balance performance and resource efficiency in NLP applications.
- Abstract(参考訳): 自然言語処理(NLP)タスクにおける大規模言語モデル(LLM)の展開の増加は、エネルギー効率と持続可能性に関する懸念を引き起こす。
これまでの研究では、モデルトレーニング中のエネルギー消費に主に焦点が当てられていたが、推論フェーズには比較的注意が向けられていない。
本研究は,各種モデルアーキテクチャとハードウェア構成間のテキスト分類推論において,モデル精度とエネルギー消費のトレードオフを系統的に評価する。
実験分析の結果,LLMは高いエネルギーを消費する傾向にあり,より少ない分類精度では高いエネルギーを消費する傾向にあることがわかった。
モデルタイプ, モデルサイズ, ハードウェア仕様の影響を受け, 推定エネルギー消費の変動(<$mWhから$>kWh)を観測した。
さらに, 推定エネルギー消費とモデル実行時間との間には強い相関関係があり, 直接測定が不可能な環境では, 実行時間がエネルギー利用の実用的なプロキシとして機能することが示唆された。
これらの発見は、持続可能なAI開発に影響を及ぼし、NLPアプリケーションのパフォーマンスとリソース効率のバランスを保とうとする研究者、業界の実践者、政策立案者に実用的な洞察を提供する。
関連論文リスト
- Green MLOps to Green GenOps: An Empirical Study of Energy Consumption in Discriminative and Generative AI Operations [2.2765705959685234]
本研究では,実世界のMLOpsパイプラインにおける識別型および生成型AIモデルのエネルギー消費について検討する。
さまざまな構成、モデル、データセットにわたるレプリケーションの容易性を保証するために、ソフトウェアベースのパワー測定を採用しています。
論文 参考訳(メタデータ) (2025-03-31T10:28:04Z) - Towards Sustainable NLP: Insights from Benchmarking Inference Energy in Large Language Models [20.730898779471556]
大きな言語モデル(LLM)は、その例外的な生成能力と汎用性によって、ますます認識されている。
本研究では,幅広いNLPタスクを対象としたLLM推論エネルギーの総合的なベンチマークを行う。
量子化と最適なバッチサイズは、目的のプロンプトフレーズとともに、エネルギー使用量を大幅に削減できることがわかった。
論文 参考訳(メタデータ) (2025-02-08T15:34:52Z) - Optimizing Sequential Recommendation Models with Scaling Laws and Approximate Entropy [104.48511402784763]
SRモデルの性能法則は,モデルの性能とデータ品質の関係を理論的に調査し,モデル化することを目的としている。
データ品質を評価するために、従来のデータ量メトリクスと比較して、より曖昧なアプローチを示すために、近似エントロピー(ApEn)を提案する。
論文 参考訳(メタデータ) (2024-11-30T10:56:30Z) - Impact of ML Optimization Tactics on Greener Pre-Trained ML Models [46.78148962732881]
本研究の目的は,画像分類データセットと事前学習モデルの解析,最適化モデルと非最適化モデルを比較して推論効率を向上させること,最適化の経済的影響を評価することである。
画像分類におけるPyTorch最適化手法(動的量子化、トーチ・コンパイル、局所プルーニング、グローバルプルーニング)と42のHugging Faceモデルの影響を評価するための制御実験を行った。
動的量子化は推論時間とエネルギー消費の大幅な削減を示し、大規模システムに非常に適している。
論文 参考訳(メタデータ) (2024-09-19T16:23:03Z) - Computing Within Limits: An Empirical Study of Energy Consumption in ML Training and Inference [2.553456266022126]
機械学習(ML)は大きな進歩を遂げているが、その環境のフットプリントは依然として懸念されている。
本稿では,グリーンMLの環境影響の増大を認め,グリーンMLについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:59:34Z) - A Comparative Study of Machine Learning Algorithms for Anomaly Detection
in Industrial Environments: Performance and Environmental Impact [62.997667081978825]
本研究は,環境の持続可能性を考慮した高性能機械学習モデルの要求に応えることを目的としている。
Decision TreesやRandom Forestsといった従来の機械学習アルゴリズムは、堅牢な効率性とパフォーマンスを示している。
しかし, 資源消費の累積増加にもかかわらず, 最適化された構成で優れた結果が得られた。
論文 参考訳(メタデータ) (2023-07-01T15:18:00Z) - Energy Efficiency of Training Neural Network Architectures: An Empirical
Study [11.325530936177493]
ディープラーニングモデルの評価は、伝統的に精度、F1スコア、関連する指標などの基準に焦点を当ててきた。
このようなモデルを訓練するために必要な計算は、大きな炭素フットプリントを必要とする。
本研究では, DLモデルアーキテクチャと環境影響との関係を, エネルギー消費の観点から検討した。
論文 参考訳(メタデータ) (2023-02-02T09:20:54Z) - HULK: An Energy Efficiency Benchmark Platform for Responsible Natural
Language Processing [76.38975568873765]
本稿では,自然言語処理のためのマルチタスクエネルギー効率ベンチマークプラットフォームであるHULKを紹介する。
我々は、事前訓練されたモデルのエネルギー効率を時間とコストの観点から比較する。
論文 参考訳(メタデータ) (2020-02-14T01:04:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。