論文の概要: Computing Within Limits: An Empirical Study of Energy Consumption in ML Training and Inference
- arxiv url: http://arxiv.org/abs/2406.14328v1
- Date: Thu, 20 Jun 2024 13:59:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-21 13:22:35.675223
- Title: Computing Within Limits: An Empirical Study of Energy Consumption in ML Training and Inference
- Title(参考訳): 限界内での計算:MLトレーニングと推論におけるエネルギー消費に関する実証的研究
- Authors: Ioannis Mavromatis, Kostas Katsaros, Aftab Khan,
- Abstract要約: 機械学習(ML)は大きな進歩を遂げているが、その環境のフットプリントは依然として懸念されている。
本稿では,グリーンMLの環境影響の増大を認め,グリーンMLについて検討する。
- 参考スコア(独自算出の注目度): 2.553456266022126
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning (ML) has seen tremendous advancements, but its environmental footprint remains a concern. Acknowledging the growing environmental impact of ML this paper investigates Green ML, examining various model architectures and hyperparameters in both training and inference phases to identify energy-efficient practices. Our study leverages software-based power measurements for ease of replication across diverse configurations, models and datasets. In this paper, we examine multiple models and hardware configurations to identify correlations across the various measurements and metrics and key contributors to energy reduction. Our analysis offers practical guidelines for constructing sustainable ML operations, emphasising energy consumption and carbon footprint reductions while maintaining performance. As identified, short-lived profiling can quantify the long-term expected energy consumption. Moreover, model parameters can also be used to accurately estimate the expected total energy without the need for extensive experimentation.
- Abstract(参考訳): 機械学習(ML)は大きな進歩を遂げているが、その環境のフットプリントは依然として懸念されている。
本稿では,グリーンMLの環境影響の増大を認め,学習と推論の両段階における各種モデルアーキテクチャとハイパーパラメータを調査し,エネルギー効率の向上を図った。
我々の研究は、ソフトウェアベースのパワー測定を利用して、さまざまな構成、モデル、データセットのレプリケーションを容易にする。
本稿では,複数のモデルとハードウェア構成について検討し,様々な測定値と測定値の相関関係を同定し,エネルギー削減に寄与する重要な要因について考察する。
本分析は, 持続可能なML操作を構築するための実践的ガイドラインを提供し, 性能を維持しつつ, エネルギー消費と炭素フットプリント削減を強調している。
同定されたように、短寿命プロファイリングは、長期的なエネルギー消費を定量化することができる。
さらに、モデルパラメータは、広範な実験をすることなく予測される総エネルギーを正確に見積もることができる。
関連論文リスト
- LLMC: Benchmarking Large Language Model Quantization with a Versatile Compression Toolkit [55.73370804397226]
鍵圧縮技術である量子化は、大きな言語モデルを圧縮し、加速することにより、これらの要求を効果的に軽減することができる。
本稿では,プラグアンドプレイ圧縮ツールキットであるLLMCについて,量子化の影響を公平かつ体系的に検討する。
論文 参考訳(メタデータ) (2024-05-09T11:49:05Z) - EcoMLS: A Self-Adaptation Approach for Architecting Green ML-Enabled Systems [1.0923877073891446]
ソフトウェアシステム内での省エネの可能性で認識されている自己適応技術は、マシンラーニングの実現可能なシステムにおいて、まだ広く研究されていない。
本研究は、インテリジェントランタイム適応によるMLSサステナビリティ向上の可能性を明らかにする。
論文 参考訳(メタデータ) (2024-04-17T14:12:47Z) - Enhancing Energy-Awareness in Deep Learning through Fine-Grained Energy
Measurement [11.37120215795946]
本稿では,詳細なディープラーニングエネルギー消費測定のためのフレームワークであるFECoM(Fine-fine Energy Consumption Meter)を紹介する。
FECoMは、静的計測を用いて、計算負荷安定性や温度など様々な要因を考慮し、エネルギー消費をきめ細かいレベルで測定する課題に対処する。
論文 参考訳(メタデータ) (2023-08-23T17:32:06Z) - A Comparative Study of Machine Learning Algorithms for Anomaly Detection
in Industrial Environments: Performance and Environmental Impact [62.997667081978825]
本研究は,環境の持続可能性を考慮した高性能機械学習モデルの要求に応えることを目的としている。
Decision TreesやRandom Forestsといった従来の機械学習アルゴリズムは、堅牢な効率性とパフォーマンスを示している。
しかし, 資源消費の累積増加にもかかわらず, 最適化された構成で優れた結果が得られた。
論文 参考訳(メタデータ) (2023-07-01T15:18:00Z) - On Feature Diversity in Energy-based Models [98.78384185493624]
エネルギーベースモデル(EBM)は通常、異なる特徴の組み合わせを学習し、入力構成ごとにエネルギーマッピングを生成する内部モデルによって構成される。
EBMのほぼ正しい(PAC)理論を拡張し,EBMの性能に及ぼす冗長性低減の影響を解析した。
論文 参考訳(メタデータ) (2023-06-02T12:30:42Z) - Counting Carbon: A Survey of Factors Influencing the Emissions of
Machine Learning [77.62876532784759]
機械学習(ML)は、モデルトレーニングプロセス中に計算を実行するためにエネルギーを使用する必要がある。
このエネルギーの生成には、使用量やエネルギー源によって、温室効果ガスの排出という観点からの環境コストが伴う。
本稿では,自然言語処理とコンピュータビジョンにおいて,95のMLモデルの炭素排出量の時間的および異なるタスクに関する調査を行う。
論文 参考訳(メタデータ) (2023-02-16T18:35:00Z) - Energy Efficiency of Training Neural Network Architectures: An Empirical
Study [11.325530936177493]
ディープラーニングモデルの評価は、伝統的に精度、F1スコア、関連する指標などの基準に焦点を当ててきた。
このようなモデルを訓練するために必要な計算は、大きな炭素フットプリントを必要とする。
本研究では, DLモデルアーキテクチャと環境影響との関係を, エネルギー消費の観点から検討した。
論文 参考訳(メタデータ) (2023-02-02T09:20:54Z) - EnergyVis: Interactively Tracking and Exploring Energy Consumption for
ML Models [8.939420322774243]
EnergyVisは機械学習(ML)モデルのためのインタラクティブなエネルギー消費トラッカーです。
研究者は、重要なエネルギー消費と炭素フットプリントのメトリクス間で、モデルエネルギー消費をインタラクティブに追跡、可視化、比較することができる。
EnergyVisは、モデルトレーニング中に過剰なエネルギー使用量をインタラクティブに強調することで、計算持続可能性に関する意識向上を目指しています。
論文 参考訳(メタデータ) (2021-03-30T15:33:43Z) - Learning Discrete Energy-based Models via Auxiliary-variable Local
Exploration [130.89746032163106]
離散構造データに対する条件付きおよび非条件付きEMMを学習するための新しいアルゴリズムであるALOEを提案する。
エネルギー関数とサンプリング器は、新しい変分型電力繰り返しにより効率よく訓練できることを示す。
本稿では、ソフトウェアテストのためのエネルギーモデルガイド付ファジィザについて、libfuzzerのようなよく設計されたファジィエンジンに匹敵する性能を実現する。
論文 参考訳(メタデータ) (2020-11-10T19:31:29Z) - Multi-Agent Meta-Reinforcement Learning for Self-Powered and Sustainable
Edge Computing Systems [87.4519172058185]
エッジコンピューティング機能を有するセルフパワー無線ネットワークの効率的なエネルギー分配機構について検討した。
定式化問題を解くために,新しいマルチエージェントメタ強化学習(MAMRL)フレームワークを提案する。
実験の結果、提案されたMAMRLモデルは、再生不可能なエネルギー使用量を最大11%削減し、エネルギーコストを22.4%削減できることが示された。
論文 参考訳(メタデータ) (2020-02-20T04:58:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。