論文の概要: Accuracy is not the only Metric that matters: Estimating the Energy
Consumption of Deep Learning Models
- arxiv url: http://arxiv.org/abs/2304.00897v1
- Date: Mon, 3 Apr 2023 11:35:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 15:48:46.390887
- Title: Accuracy is not the only Metric that matters: Estimating the Energy
Consumption of Deep Learning Models
- Title(参考訳): ディープラーニングモデルのエネルギー消費量の推定は、精度だけではありません。
- Authors: Johannes Getzner, Bertrand Charpentier, Stephan G\"unnemann
- Abstract要約: 我々は、実践者が実際に走ったり訓練したりすることなく、事前にモデルのエネルギー需要を見積もることができるエネルギー推定パイプライン1を作成しました。
そこで我々は,高品質なエネルギーデータを収集し,推定層エネルギーを蓄積することによりDLモデルのエネルギー消費を予測できる第1ベースラインモデルを構築した。
- 参考スコア(独自算出の注目度): 33.45069308137142
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern machine learning models have started to consume incredible amounts of
energy, thus incurring large carbon footprints (Strubell et al., 2019). To
address this issue, we have created an energy estimation pipeline1, which
allows practitioners to estimate the energy needs of their models in advance,
without actually running or training them. We accomplished this, by collecting
high-quality energy data and building a first baseline model, capable of
predicting the energy consumption of DL models by accumulating their estimated
layer-wise energies.
- Abstract(参考訳): 現代の機械学習モデルは、膨大な量のエネルギーを消費し始めており、大きな炭素フットプリントを生み出している(Strubell et al., 2019)。
この問題に対処するため,我々は,実際の運用やトレーニングを行わずに,事前にモデルのエネルギーニーズを見積もることのできる,エネルギー推定パイプライン1を開発した。
そこで我々は,高品質なエネルギーデータを収集し,推定層エネルギーを蓄積することによりDLモデルのエネルギー消費を予測できる第1ベースラインモデルを構築した。
関連論文リスト
- Just In Time Transformers [2.7350304370706797]
JITtransは,エネルギー消費予測精度を大幅に向上させる,トランスフォーマー深層学習モデルである。
本研究は, エネルギー管理を革新し, 持続可能な電力システムを構築するための先進的な予測技術の可能性を明らかにするものである。
論文 参考訳(メタデータ) (2024-10-22T10:33:00Z) - Power Hungry Processing: Watts Driving the Cost of AI Deployment? [74.19749699665216]
生成された多目的AIシステムは、機械学習(ML)モデルをテクノロジに構築するための統一的なアプローチを約束する。
この「一般性」の野心は、これらのシステムが必要とするエネルギー量と放出する炭素量を考えると、環境に急激なコストがかかる。
これらのモデルを用いて,代表的なベンチマークデータセット上で1,000の推論を行うのに必要なエネルギーと炭素の量として,デプロイメントコストを測定した。
本稿は、多目的MLシステムの展開動向に関する議論から締めくくり、エネルギーと排出の面でコストの増大に対して、その実用性はより意図的に重み付けされるべきである、と警告する。
論文 参考訳(メタデータ) (2023-11-28T15:09:36Z) - How to use model architecture and training environment to estimate the energy consumption of DL training [5.190998244098203]
本研究は,Deep Learning Trainingにおけるエネルギー消費と2つの関連する設計決定との関係を活用することを目的とする。
本研究では, トレーニングの消費電力特性について検討し, 4つの新しいエネルギー推定法を提案する。
その結果、適切なモデルアーキテクチャとトレーニング環境を選択することで、エネルギー消費を劇的に削減できることがわかった。
論文 参考訳(メタデータ) (2023-07-07T12:07:59Z) - Counting Carbon: A Survey of Factors Influencing the Emissions of
Machine Learning [77.62876532784759]
機械学習(ML)は、モデルトレーニングプロセス中に計算を実行するためにエネルギーを使用する必要がある。
このエネルギーの生成には、使用量やエネルギー源によって、温室効果ガスの排出という観点からの環境コストが伴う。
本稿では,自然言語処理とコンピュータビジョンにおいて,95のMLモデルの炭素排出量の時間的および異なるタスクに関する調査を行う。
論文 参考訳(メタデータ) (2023-02-16T18:35:00Z) - Estimating the Carbon Footprint of BLOOM, a 176B Parameter Language
Model [72.65502770895417]
176ビリオンパラメータ言語モデルBLOOMの炭素フットプリントを,そのライフサイクルにわたって定量化する。
BLOOMの最終訓練で約24.7トンのカルボネックが放出されたと推定する。
本稿では,機械学習モデルの炭素フットプリントを正確に推定することの難しさについて論じる。
論文 参考訳(メタデータ) (2022-11-03T17:13:48Z) - Full-Cycle Energy Consumption Benchmark for Low-Carbon Computer Vision [31.781943982148025]
我々は,効率的なコンピュータビジョンモデルのための最初の大規模エネルギー消費ベンチマークを示す。
モデル利用強度の異なる全サイクルエネルギー消費を明示的に評価するための新しい指標を提案する。
論文 参考訳(メタデータ) (2021-08-30T18:22:36Z) - EnergyVis: Interactively Tracking and Exploring Energy Consumption for
ML Models [8.939420322774243]
EnergyVisは機械学習(ML)モデルのためのインタラクティブなエネルギー消費トラッカーです。
研究者は、重要なエネルギー消費と炭素フットプリントのメトリクス間で、モデルエネルギー消費をインタラクティブに追跡、可視化、比較することができる。
EnergyVisは、モデルトレーニング中に過剰なエネルギー使用量をインタラクティブに強調することで、計算持続可能性に関する意識向上を目指しています。
論文 参考訳(メタデータ) (2021-03-30T15:33:43Z) - Towards Accurate and Reliable Energy Measurement of NLP Models [20.289537200662306]
既存のソフトウェアベースのエネルギー測定は、ハードウェアの違いや資源利用がエネルギー消費に与える影響を考慮していないため、正確ではないことを示す。
我々は,高精度なエネルギー測定を行うハードウェアパワーメータを用いて,既存のソフトウェアベースのエネルギー測定の誤差を定量化する。
我々の重要な特徴は、ハードウェアの多様性と資源利用とエネルギー消費の非線形関係を考慮に入れたより正確なエネルギー推定モデルの必要性である。
論文 参考訳(メタデータ) (2020-10-11T13:44:52Z) - Multi-Agent Meta-Reinforcement Learning for Self-Powered and Sustainable
Edge Computing Systems [87.4519172058185]
エッジコンピューティング機能を有するセルフパワー無線ネットワークの効率的なエネルギー分配機構について検討した。
定式化問題を解くために,新しいマルチエージェントメタ強化学習(MAMRL)フレームワークを提案する。
実験の結果、提案されたMAMRLモデルは、再生不可能なエネルギー使用量を最大11%削減し、エネルギーコストを22.4%削減できることが示された。
論文 参考訳(メタデータ) (2020-02-20T04:58:07Z) - NeurOpt: Neural network based optimization for building energy
management and climate control [58.06411999767069]
モデル同定のコストを削減するために,ニューラルネットワークに基づくデータ駆動制御アルゴリズムを提案する。
イタリアにある10の独立したゾーンを持つ2階建ての建物で、学習と制御のアルゴリズムを検証する。
論文 参考訳(メタデータ) (2020-01-22T00:51:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。