論文の概要: Normalizing Energy Consumption for Hardware-Independent Evaluation
- arxiv url: http://arxiv.org/abs/2409.05602v1
- Date: Mon, 9 Sep 2024 13:38:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-10 14:39:56.555487
- Title: Normalizing Energy Consumption for Hardware-Independent Evaluation
- Title(参考訳): ハードウェア非依存評価のためのエネルギー消費の正規化
- Authors: Constance Douwes, Romain Serizel,
- Abstract要約: 本稿では,異なるハードウェアプラットフォーム間でのエネルギー消費の正規化手法を提案する。
提案手法は,基準点数,回帰値の種類,および計算量を含めることが正規化過程に大きく影響を与えることを示す。
- 参考スコア(独自算出の注目度): 9.658615045493734
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The increasing use of machine learning (ML) models in signal processing has raised concerns about their environmental impact, particularly during resource-intensive training phases. In this study, we present a novel methodology for normalizing energy consumption across different hardware platforms to facilitate fair and consistent comparisons. We evaluate different normalization strategies by measuring the energy used to train different ML architectures on different GPUs, focusing on audio tagging tasks. Our approach shows that the number of reference points, the type of regression and the inclusion of computational metrics significantly influences the normalization process. We find that the appropriate selection of two reference points provides robust normalization, while incorporating the number of floating-point operations and parameters improves the accuracy of energy consumption predictions. By supporting more accurate energy consumption evaluation, our methodology promotes the development of environmentally sustainable ML practices.
- Abstract(参考訳): 信号処理における機械学習(ML)モデルの利用の増加は、特にリソース集約的なトレーニングフェーズにおいて、その環境への影響に関する懸念を引き起こしている。
本研究では,各ハードウェアプラットフォームにまたがるエネルギー消費を正規化し,公平かつ一貫した比較を容易にする手法を提案する。
我々は、異なるGPU上で異なるMLアーキテクチャをトレーニングするのに使用されるエネルギーを測定し、オーディオタグ付けタスクに焦点をあてて、異なる正規化戦略を評価する。
提案手法は,基準点数,回帰値の種類,および計算量を含めることが正規化過程に大きく影響を与えることを示す。
2つの基準点の適切な選択は、浮動小数点演算とパラメータの数を組み込むことで、エネルギー消費予測の精度を向上させるとともに、ロバストな正規化をもたらす。
本手法は, より正確なエネルギー消費評価を支援することにより, 環境保全型MLプラクティスの開発を促進する。
関連論文リスト
- Impact of ML Optimization Tactics on Greener Pre-Trained ML Models [46.78148962732881]
本研究の目的は,画像分類データセットと事前学習モデルの解析,最適化モデルと非最適化モデルを比較して推論効率を向上させること,最適化の経済的影響を評価することである。
画像分類におけるPyTorch最適化手法(動的量子化、トーチ・コンパイル、局所プルーニング、グローバルプルーニング)と42のHugging Faceモデルの影響を評価するための制御実験を行った。
動的量子化は推論時間とエネルギー消費の大幅な削減を示し、大規模システムに非常に適している。
論文 参考訳(メタデータ) (2024-09-19T16:23:03Z) - Evaluating the Energy Consumption of Machine Learning: Systematic Literature Review and Experiments [16.62572282726245]
機械学習(ML)のエネルギー消費をモニタリングし、理解し、最適化することは、MLのエネルギー使用量を評価する必要がある様々な理由である。
全てのユースケースでこの疑問に答えられる普遍的なツールは存在しておらず、特定のユースケースのエネルギー消費を評価する方法についても意見の相違があるかもしれない。
論文 参考訳(メタデータ) (2024-08-27T15:08:06Z) - Computing Within Limits: An Empirical Study of Energy Consumption in ML Training and Inference [2.553456266022126]
機械学習(ML)は大きな進歩を遂げているが、その環境のフットプリントは依然として懸念されている。
本稿では,グリーンMLの環境影響の増大を認め,グリーンMLについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:59:34Z) - Inferring Preferences from Demonstrations in Multi-Objective Residential
Energy Management [3.354345524478023]
DemoPI(Demonstration-based preference inference)は、この問題を軽減するための有望なアプローチである。
エネルギー顧客の振る舞いと価値を理解することは、選好推論が使えるシナリオの例です。
本研究では,多目的住宅エネルギー消費設定において,動的重みに基づく選好推定法(DWPI)を適用した。
論文 参考訳(メタデータ) (2024-01-15T14:36:59Z) - A Carbon Tracking Model for Federated Learning: Impact of Quantization and Sparsification [5.341266334051207]
フェデレートラーニング(FL)手法は効率的なコミュニケーション技術を採用し、エッジデバイスに機械学習タスクを分散させる。
本稿では,FLシステムのエネルギーおよび炭素フットプリントへの影響をリアルタイムにモニタリングするためのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-12T07:20:03Z) - Interactive Hyperparameter Optimization in Multi-Objective Problems via
Preference Learning [65.51668094117802]
我々は多目的機械学習(ML)に適した人間中心型対話型HPO手法を提案する。
ユーザが自分のニーズに最も適した指標を推測する代わりに、私たちのアプローチは自動的に適切な指標を学習します。
論文 参考訳(メタデータ) (2023-09-07T09:22:05Z) - A Comparative Study of Machine Learning Algorithms for Anomaly Detection
in Industrial Environments: Performance and Environmental Impact [62.997667081978825]
本研究は,環境の持続可能性を考慮した高性能機械学習モデルの要求に応えることを目的としている。
Decision TreesやRandom Forestsといった従来の機械学習アルゴリズムは、堅牢な効率性とパフォーマンスを示している。
しかし, 資源消費の累積増加にもかかわらず, 最適化された構成で優れた結果が得られた。
論文 参考訳(メタデータ) (2023-07-01T15:18:00Z) - Evaluating natural language processing models with generalization
metrics that do not need access to any training or testing data [66.11139091362078]
本稿では,Hugingface から事前学習した大規模トランスフォーマーに対して,一般化指標を用いた最初のモデル選択結果を提案する。
ニッチな状況にもかかわらず、ヘビーテール(HT)の観点から派生したメトリクスは、特にNLPタスクにおいて有用である。
論文 参考訳(メタデータ) (2022-02-06T20:07:35Z) - Energy-Efficient and Federated Meta-Learning via Projected Stochastic
Gradient Ascent [79.58680275615752]
エネルギー効率のよいメタラーニングフレームワークを提案する。
各タスクは別々のエージェントによって所有されていると仮定するため、メタモデルをトレーニングするために限られたタスクが使用される。
論文 参考訳(メタデータ) (2021-05-31T08:15:44Z) - Policy Information Capacity: Information-Theoretic Measure for Task
Complexity in Deep Reinforcement Learning [83.66080019570461]
課題の難易度について,環境にとらわれない,アルゴリズムにとらわれない2つの定量的指標を提案する。
これらの指標は、様々な代替案よりも、正規化タスク可解性スコアとの相関が高いことを示す。
これらのメトリクスは、鍵設計パラメータの高速かつ計算効率の良い最適化にも使用できる。
論文 参考訳(メタデータ) (2021-03-23T17:49:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。