論文の概要: Ground-Truthing AI Energy Consumption: Validating CodeCarbon Against External Measurements
- arxiv url: http://arxiv.org/abs/2509.22092v1
- Date: Fri, 26 Sep 2025 09:12:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.321963
- Title: Ground-Truthing AI Energy Consumption: Validating CodeCarbon Against External Measurements
- Title(参考訳): 地上走行型AIエネルギー消費:外部測定に対するCodeCarbonの検証
- Authors: Raphael Fischer,
- Abstract要約: 本研究では静的および動的エネルギー推定手法の信頼性を系統的に評価する。
確立された推定手法は、一貫して最大40%の誤差を発生させる。
この研究は透明性を確立し、持続可能なAI開発に広く利用されているツールを検証する。
- 参考スコア(独自算出の注目度): 2.538209532048867
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although machine learning (ML) and artificial intelligence (AI) present fascinating opportunities for innovation, their rapid development is also significantly impacting our environment. In response to growing resource-awareness in the field, quantification tools such as the ML Emissions Calculator and CodeCarbon were developed to estimate the energy consumption and carbon emissions of running AI models. They are easy to incorporate into AI projects, however also make pragmatic assumptions and neglect important factors, raising the question of estimation accuracy. This study systematically evaluates the reliability of static and dynamic energy estimation approaches through comparisons with ground-truth measurements across hundreds of AI experiments. Based on the proposed validation framework, investigative insights into AI energy demand and estimation inaccuracies are provided. While generally following the patterns of AI energy consumption, the established estimation approaches are shown to consistently make errors of up to 40%. By providing empirical evidence on energy estimation quality and errors, this study establishes transparency and validates widely used tools for sustainable AI development. It moreover formulates guidelines for improving the state-of-the-art and offers code for extending the validation to other domains and tools, thus making important contributions to resource-aware ML and AI sustainability research.
- Abstract(参考訳): 機械学習(ML)と人工知能(AI)はイノベーションの魅力的な機会を提供するが、彼らの急速な開発は私たちの環境にも大きな影響を与えている。
現場における資源認識の増大に対応して、実行中のAIモデルのエネルギー消費と炭素排出量を推定するために、MLエミッション計算やCodeCarbonなどの定量化ツールが開発された。
AIプロジェクトに組み込むのは簡単だが、現実的な仮定をし、重要な要因を無視し、推定精度の疑問を提起する。
本研究は, 静的・動的エネルギー推定手法の信頼性を, 何百ものAI実験における地上構造測定との比較により体系的に評価する。
提案した検証フレームワークに基づいて,AIエネルギー需要と推定不正確性に関する調査的な洞察を提供する。
一般的にAIエネルギー消費のパターンに従うが、確立された推定アプローチは、一貫して最大40%のエラーを発生させる。
エネルギー推定の品質とエラーに関する実証的な証拠を提供することで、透明性を確立し、持続可能なAI開発に広く利用されているツールを検証する。
さらに、最先端の改善のためのガイドラインを定式化し、検証を他のドメインやツールに拡張するためのコードを提供し、リソースを意識したMLとAIサステナビリティ研究に重要な貢献をする。
関連論文リスト
- WattsOnAI: Measuring, Analyzing, and Visualizing Energy and Carbon Footprint of AI Workloads [8.545822371190125]
WattsOnAIは、AIワークロード全体にわたるエネルギー使用、電力引き込み、ハードウェアパフォーマンス、二酸化炭素排出量の測定、分析、可視化のための包括的なソフトウェアツールキットである。
既存のAIフレームワークとシームレスに統合することで、WattsOnAIは標準化されたレポートを提供し、詳細な時系列データをエクスポートする。
WattsOnAIは、研究コミュニティに対して、AIワークロードの生のパフォーマンスとともに環境への影響を評価することを奨励し、より持続可能な"グリーンAI"プラクティスへの移行を進める。
論文 参考訳(メタデータ) (2025-06-25T15:24:45Z) - General Scales Unlock AI Evaluation with Explanatory and Predictive Power [57.7995945974989]
ベンチマークはAIの進歩を導くものだが、汎用AIシステムには限られた説明力と予測力を提供している。
私たちは、一般的なAIベンチマークが実際に何を計測しているかを説明することができる、AI評価のための一般的な尺度を紹介します。
私たちの完全に自動化された方法論は、飽和しない一般的なスケールにインスタンス要求を配置する18の新しく作られたルーリックの上に構築されます。
論文 参考訳(メタデータ) (2025-03-09T01:13:56Z) - Generative AI in Health Economics and Outcomes Research: A Taxonomy of Key Definitions and Emerging Applications, an ISPOR Working Group Report [12.204470166456561]
ジェネレーティブAIは、健康経済学と成果研究(HEOR)において大きな可能性を秘めている
生成AIは、HEORに大きな可能性を示し、効率性、生産性を高め、複雑な課題に対する新しいソリューションを提供する。
ファウンデーションモデルは複雑なタスクを自動化する上で有望だが、科学的信頼性、バイアス、解釈可能性、ワークフローの統合には課題が残っている。
論文 参考訳(メタデータ) (2024-10-26T15:42:50Z) - Learn to Code Sustainably: An Empirical Study on LLM-based Green Code
Generation [7.8273713434806345]
生成型商用AI言語モデルにより生成された自動生成符号の持続可能性を評価する。
3つのAI言語モデルによって生成された人為的なコードとコードのパフォーマンスとグリーンキャパシティを比較した。
論文 参考訳(メタデータ) (2024-03-05T22:12:01Z) - On the Opportunities of Green Computing: A Survey [80.21955522431168]
人工知能(AI)は数十年にわたり、技術と研究において大きな進歩を遂げてきた。
高いコンピューティングパワーの必要性は、より高い二酸化炭素排出量をもたらし、研究の公正性を損なう。
コンピューティングリソースの課題とAIの環境への影響に取り組むため、グリーンコンピューティングはホットな研究トピックとなっている。
論文 参考訳(メタデータ) (2023-11-01T11:16:41Z) - A Comparative Study of Machine Learning Algorithms for Anomaly Detection
in Industrial Environments: Performance and Environmental Impact [62.997667081978825]
本研究は,環境の持続可能性を考慮した高性能機械学習モデルの要求に応えることを目的としている。
Decision TreesやRandom Forestsといった従来の機械学習アルゴリズムは、堅牢な効率性とパフォーマンスを示している。
しかし, 資源消費の累積増加にもかかわらず, 最適化された構成で優れた結果が得られた。
論文 参考訳(メタデータ) (2023-07-01T15:18:00Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - The Powerful Use of AI in the Energy Sector: Intelligent Forecasting [7.747343962518897]
本稿では,エネルギー部門におけるAIシステムの開発,展開,評価を行う手法を提案する。
目標は、エネルギーユーティリティーユーザーに高い信頼性を提供することだ。
論文 参考訳(メタデータ) (2021-11-03T05:30:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。