論文の概要: AI-CARE: Carbon-Aware Reporting Evaluation Metric for AI Models
- arxiv url: http://arxiv.org/abs/2602.16042v1
- Date: Tue, 17 Feb 2026 21:52:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.448819
- Title: AI-CARE: Carbon-Aware Reporting Evaluation Metric for AI Models
- Title(参考訳): AI-CARE:AIモデルのカーボンアウェアレポート評価指標
- Authors: KC Santosh, Srikanth Baride, Rodrigue Rizk,
- Abstract要約: 本稿では,AI-CARE,エネルギー消費評価ツール,および機械学習モデルの炭素排出量について述べる。
理論的解析と実証的検証を通じて、炭素認識ベンチマークがモデルの相対的なランキングを変えることを実証する。
本提案は,研究コミュニティを透明で多目的な評価に転換し,MLの進歩をグローバルなサステナビリティ目標に合わせることを目的としている。
- 参考スコア(独自算出の注目度): 2.7946918847372277
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As machine learning (ML) continues its rapid expansion, the environmental cost of model training and inference has become a critical societal concern. Existing benchmarks overwhelmingly focus on standard performance metrics such as accuracy, BLEU, or mAP, while largely ignoring energy consumption and carbon emissions. This single-objective evaluation paradigm is increasingly misaligned with the practical requirements of large-scale deployment, particularly in energy-constrained environments such as mobile devices, developing regions, and climate-aware enterprises. In this paper, we propose AI-CARE, an evaluation tool for reporting energy consumption, and carbon emissions of ML models. In addition, we introduce the carbon-performance tradeoff curve, an interpretable tool that visualizes the Pareto frontier between performance and carbon cost. We demonstrate, through theoretical analysis and empirical validation on representative ML workloads, that carbon-aware benchmarking changes the relative ranking of models and encourages architectures that are simultaneously accurate and environmentally responsible. Our proposal aims to shift the research community toward transparent, multi-objective evaluation and align ML progress with global sustainability goals. The tool and documentation are available at https://github.com/USD-AI-ResearchLab/ai-care.
- Abstract(参考訳): 機械学習(ML)の急速な拡大が進むにつれ、モデルトレーニングと推論の環境コストが重要な社会的関心事となっている。
既存のベンチマークでは、精度、BLEU、mAPなどの標準的なパフォーマンス指標が圧倒的に重視されているが、エネルギー消費や二酸化炭素排出量は無視されている。
この単一目的評価パラダイムは、特にモバイルデバイスや開発地域、気候に配慮した企業といった、エネルギーに制約のある環境での大規模展開の実践的要件と、ますます混同されている。
本稿では,MLモデルのエネルギー消費と二酸化炭素排出量を報告するための評価ツールであるAI-CAREを提案する。
さらに,パレートフロンティアを可視化する解析ツールである炭素性能トレードオフ曲線を導入する。
我々は,代表的MLワークロードに関する理論的解析と実証的検証を通じて,炭素認識ベンチマークがモデルの相対的ランク付けを変え,同時に正確かつ環境に責任のあるアーキテクチャを促進することを実証する。
本提案は,研究コミュニティを透明で多目的な評価に転換し,MLの進歩をグローバルなサステナビリティ目標に合わせることを目的としている。
ツールとドキュメントはhttps://github.com/USD-AI-ResearchLab/ai-careで公開されている。
関連論文リスト
- AIMeter: Measuring, Analyzing, and Visualizing Energy and Carbon Footprint of AI Workloads [7.7878942091873755]
AIMeterは、AIワークロード全体でのエネルギー使用、電力引き込み、ハードウェアパフォーマンス、二酸化炭素排出量の測定、分析、可視化のための包括的なソフトウェアツールキットである。
既存のAIフレームワークとシームレスに統合することにより、AIMeterは標準化されたレポートを提供し、詳細な時系列データをエクスポートする。
さらに、ハードウェアメトリクスとモデルパフォーマンスの詳細な相関分析を可能にし、ボトルネック識別とパフォーマンス向上を容易にする。
論文 参考訳(メタデータ) (2025-06-25T15:24:45Z) - Breaking the ICE: Exploring promises and challenges of benchmarks for Inference Carbon & Energy estimation for LLMs [8.377809633825196]
本稿では, 現状のアプローチの課題について論じるとともに, 炭素排出量を推定するフレームワークであるR-ICEについて述べる。
我々の有望な検証結果は、ベンチマークベースのモデリングが推定放射推定に大きな可能性を秘めていることを示唆している。
論文 参考訳(メタデータ) (2025-06-10T12:23:02Z) - Unveiling Environmental Impacts of Large Language Model Serving: A Functional Unit View [2.5832043241251337]
FUELは、大規模言語モデル(LLM)の環境影響を評価するためのフレームワークである
モデルサイズ、量子化戦略、ハードウェア選択を最適化することで、二酸化炭素排出量を減らすための重要な洞察とトレードオフを明らかにします。
論文 参考訳(メタデータ) (2025-02-16T20:20:18Z) - CEGI: Measuring the trade-off between efficiency and carbon emissions for SLMs and VLMs [0.0]
本稿では,Small Language Models(SLM)とVision Language Models(VLM)の性能解析を行う。
モデル性能と二酸化炭素排出量のトレードオフを定量化するために,CEGI(Carbon Efficient Gain Index)と呼ばれる新しい指標を導入する。
以上の結果から,大規模モデルによる精度の限界向上は,二酸化炭素排出量の大幅な増加を正当化するものではないことが示唆された。
論文 参考訳(メタデータ) (2024-12-03T17:32:47Z) - Power Hungry Processing: Watts Driving the Cost of AI Deployment? [74.19749699665216]
生成された多目的AIシステムは、機械学習(ML)モデルをテクノロジに構築するための統一的なアプローチを約束する。
この「一般性」の野心は、これらのシステムが必要とするエネルギー量と放出する炭素量を考えると、環境に急激なコストがかかる。
これらのモデルを用いて,代表的なベンチマークデータセット上で1,000の推論を行うのに必要なエネルギーと炭素の量として,デプロイメントコストを測定した。
本稿は、多目的MLシステムの展開動向に関する議論から締めくくり、エネルギーと排出の面でコストの増大に対して、その実用性はより意図的に重み付けされるべきである、と警告する。
論文 参考訳(メタデータ) (2023-11-28T15:09:36Z) - A Comparative Study of Machine Learning Algorithms for Anomaly Detection
in Industrial Environments: Performance and Environmental Impact [62.997667081978825]
本研究は,環境の持続可能性を考慮した高性能機械学習モデルの要求に応えることを目的としている。
Decision TreesやRandom Forestsといった従来の機械学習アルゴリズムは、堅牢な効率性とパフォーマンスを示している。
しかし, 資源消費の累積増加にもかかわらず, 最適化された構成で優れた結果が得られた。
論文 参考訳(メタデータ) (2023-07-01T15:18:00Z) - Counting Carbon: A Survey of Factors Influencing the Emissions of
Machine Learning [77.62876532784759]
機械学習(ML)は、モデルトレーニングプロセス中に計算を実行するためにエネルギーを使用する必要がある。
このエネルギーの生成には、使用量やエネルギー源によって、温室効果ガスの排出という観点からの環境コストが伴う。
本稿では,自然言語処理とコンピュータビジョンにおいて,95のMLモデルの炭素排出量の時間的および異なるタスクに関する調査を行う。
論文 参考訳(メタデータ) (2023-02-16T18:35:00Z) - Estimating the Carbon Footprint of BLOOM, a 176B Parameter Language
Model [72.65502770895417]
176ビリオンパラメータ言語モデルBLOOMの炭素フットプリントを,そのライフサイクルにわたって定量化する。
BLOOMの最終訓練で約24.7トンのカルボネックが放出されたと推定する。
本稿では,機械学習モデルの炭素フットプリントを正確に推定することの難しさについて論じる。
論文 参考訳(メタデータ) (2022-11-03T17:13:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。