論文の概要: EnergyVis: Interactively Tracking and Exploring Energy Consumption for
ML Models
- arxiv url: http://arxiv.org/abs/2103.16435v1
- Date: Tue, 30 Mar 2021 15:33:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-31 15:08:11.717895
- Title: EnergyVis: Interactively Tracking and Exploring Energy Consumption for
ML Models
- Title(参考訳): EnergyVis:MLモデルの相互追跡とエネルギー消費の探索
- Authors: Omar Shaikh, Jon Saad-Falcon, Austin P Wright, Nilaksh Das, Scott
Freitas, Omar Isaac Asensio, Duen Horng Chau
- Abstract要約: EnergyVisは機械学習(ML)モデルのためのインタラクティブなエネルギー消費トラッカーです。
研究者は、重要なエネルギー消費と炭素フットプリントのメトリクス間で、モデルエネルギー消費をインタラクティブに追跡、可視化、比較することができる。
EnergyVisは、モデルトレーニング中に過剰なエネルギー使用量をインタラクティブに強調することで、計算持続可能性に関する意識向上を目指しています。
- 参考スコア(独自算出の注目度): 8.939420322774243
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The advent of larger machine learning (ML) models have improved
state-of-the-art (SOTA) performance in various modeling tasks, ranging from
computer vision to natural language. As ML models continue increasing in size,
so does their respective energy consumption and computational requirements.
However, the methods for tracking, reporting, and comparing energy consumption
remain limited. We presentEnergyVis, an interactive energy consumption tracker
for ML models. Consisting of multiple coordinated views, EnergyVis enables
researchers to interactively track, visualize and compare model energy
consumption across key energy consumption and carbon footprint metrics (kWh and
CO2), helping users explore alternative deployment locations and hardware that
may reduce carbon footprints. EnergyVis aims to raise awareness concerning
computational sustainability by interactively highlighting excessive energy
usage during model training; and by providing alternative training options to
reduce energy usage.
- Abstract(参考訳): 機械学習(ML)モデルの出現により、コンピュータビジョンから自然言語まで、さまざまなモデリングタスクにおける最先端(SOTA)のパフォーマンスが改善された。
MLモデルのサイズが大きくなるにつれて、それぞれのエネルギー消費や計算要求も増加する。
しかし、エネルギー消費を追跡、報告、比較する方法は限られている。
本稿では,MLモデルの対話型エネルギー消費トラッカーであるEnergyVisを紹介する。
複数の協調ビューで構成されたEnergyVisは、研究者が主要なエネルギー消費と炭素フットプリントメトリクス(kWhとCO2)にわたるモデルエネルギー消費のインタラクティブな追跡、可視化、比較を可能にする。
EnergyVisは、モデルトレーニング中に過剰なエネルギー使用をインタラクティブに強調し、エネルギー使用を減らすための代替のトレーニングオプションを提供することによって、計算サステナビリティに関する意識を高めることを目的としている。
関連論文リスト
- Computing Within Limits: An Empirical Study of Energy Consumption in ML Training and Inference [2.553456266022126]
機械学習(ML)は大きな進歩を遂げているが、その環境のフットプリントは依然として懸念されている。
本稿では,グリーンMLの環境影響の増大を認め,グリーンMLについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:59:34Z) - Power Hungry Processing: Watts Driving the Cost of AI Deployment? [74.19749699665216]
生成された多目的AIシステムは、機械学習(ML)モデルをテクノロジに構築するための統一的なアプローチを約束する。
この「一般性」の野心は、これらのシステムが必要とするエネルギー量と放出する炭素量を考えると、環境に急激なコストがかかる。
これらのモデルを用いて,代表的なベンチマークデータセット上で1,000の推論を行うのに必要なエネルギーと炭素の量として,デプロイメントコストを測定した。
本稿は、多目的MLシステムの展開動向に関する議論から締めくくり、エネルギーと排出の面でコストの増大に対して、その実用性はより意図的に重み付けされるべきである、と警告する。
論文 参考訳(メタデータ) (2023-11-28T15:09:36Z) - Enhancing Energy-Awareness in Deep Learning through Fine-Grained Energy
Measurement [11.37120215795946]
本稿では,詳細なディープラーニングエネルギー消費測定のためのフレームワークであるFECoM(Fine-fine Energy Consumption Meter)を紹介する。
FECoMは、静的計測を用いて、計算負荷安定性や温度など様々な要因を考慮し、エネルギー消費をきめ細かいレベルで測定する課題に対処する。
論文 参考訳(メタデータ) (2023-08-23T17:32:06Z) - Scaling Vision-Language Models with Sparse Mixture of Experts [128.0882767889029]
提案手法は, 等価計算コストの高密度モデルに対して, 様々なベンチマークにおいて, 最先端性能を実現することができることを示す。
我々の研究は、MoEモデルのトレーニングの安定化、モデル解釈可能性に対するMoEの影響の理解、ビジョン言語モデルをスケールする際の計算性能間のトレードオフのバランスに関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2023-03-13T16:00:31Z) - Counting Carbon: A Survey of Factors Influencing the Emissions of
Machine Learning [77.62876532784759]
機械学習(ML)は、モデルトレーニングプロセス中に計算を実行するためにエネルギーを使用する必要がある。
このエネルギーの生成には、使用量やエネルギー源によって、温室効果ガスの排出という観点からの環境コストが伴う。
本稿では,自然言語処理とコンピュータビジョンにおいて,95のMLモデルの炭素排出量の時間的および異なるタスクに関する調査を行う。
論文 参考訳(メタデータ) (2023-02-16T18:35:00Z) - Energy Transformer [64.22957136952725]
我々の研究は、機械学習における有望な3つのパラダイム、すなわち注意機構、エネルギーベースモデル、連想記憶の側面を組み合わせる。
本稿では,エネルギー変換器(ET,Energy Transformer)と呼ばれる新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-02-14T18:51:22Z) - Great Power, Great Responsibility: Recommendations for Reducing Energy
for Training Language Models [8.927248087602942]
一般的なNLPアプリケーションのエネルギー消費を削減できる技術について検討する。
これらの手法は、訓練言語モデルや推論に使用する際のエネルギー消費を著しく減少させる可能性がある。
論文 参考訳(メタデータ) (2022-05-19T16:03:55Z) - Adaptive Energy Management for Self-Sustainable Wearables in Mobile
Health [21.97214707198675]
ウェアラブルデバイスの小さなフォームファクタは、バッテリーのサイズと寿命を制限します。
ウェアラブル機器の持続可能な運用に有効な方法として、エネルギー収穫が出現している。
本稿では, 蓄電池エネルギーを補充し, ユーザによる手動充電を減らすことで, 自己維持可能なウェアラブルを目標とする適応型エネルギー管理の新たな課題について検討する。
論文 参考訳(メタデータ) (2022-01-16T23:49:20Z) - Full-Cycle Energy Consumption Benchmark for Low-Carbon Computer Vision [31.781943982148025]
我々は,効率的なコンピュータビジョンモデルのための最初の大規模エネルギー消費ベンチマークを示す。
モデル利用強度の異なる全サイクルエネルギー消費を明示的に評価するための新しい指標を提案する。
論文 参考訳(メタデータ) (2021-08-30T18:22:36Z) - Multi-Agent Meta-Reinforcement Learning for Self-Powered and Sustainable
Edge Computing Systems [87.4519172058185]
エッジコンピューティング機能を有するセルフパワー無線ネットワークの効率的なエネルギー分配機構について検討した。
定式化問題を解くために,新しいマルチエージェントメタ強化学習(MAMRL)フレームワークを提案する。
実験の結果、提案されたMAMRLモデルは、再生不可能なエネルギー使用量を最大11%削減し、エネルギーコストを22.4%削減できることが示された。
論文 参考訳(メタデータ) (2020-02-20T04:58:07Z) - Towards the Systematic Reporting of the Energy and Carbon Footprints of
Machine Learning [68.37641996188133]
我々は、リアルタイムエネルギー消費と二酸化炭素排出量を追跡するための枠組みを導入する。
エネルギー効率のよい強化学習アルゴリズムのためのリーダーボードを作成します。
炭素排出量削減とエネルギー消費削減のための戦略を提案する。
論文 参考訳(メタデータ) (2020-01-31T05:12:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。