論文の概要: EC-NAS: Energy Consumption Aware Tabular Benchmarks for Neural Architecture Search
- arxiv url: http://arxiv.org/abs/2210.06015v4
- Date: Fri, 22 Mar 2024 10:59:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-26 00:08:10.378716
- Title: EC-NAS: Energy Consumption Aware Tabular Benchmarks for Neural Architecture Search
- Title(参考訳): EC-NAS:ニューラルネットワーク検索のためのタブラルベンチマークを意識したエネルギー消費
- Authors: Pedram Bakhtiarifard, Christian Igel, Raghavendra Selvan,
- Abstract要約: ディープラーニングモデルの選択、トレーニング、デプロイによるエネルギー消費は、最近大幅に増加しています。
この研究は、計算資源の少ないエネルギー効率の高いディープラーニングモデルの設計を容易にすることを目的としている。
- 参考スコア(独自算出の注目度): 7.178157652947453
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Energy consumption from the selection, training, and deployment of deep learning models has seen a significant uptick recently. This work aims to facilitate the design of energy-efficient deep learning models that require less computational resources and prioritize environmental sustainability by focusing on the energy consumption. Neural architecture search (NAS) benefits from tabular benchmarks, which evaluate NAS strategies cost-effectively through precomputed performance statistics. We advocate for including energy efficiency as an additional performance criterion in NAS. To this end, we introduce an enhanced tabular benchmark encompassing data on energy consumption for varied architectures. The benchmark, designated as EC-NAS, has been made available in an open-source format to advance research in energy-conscious NAS. EC-NAS incorporates a surrogate model to predict energy consumption, aiding in diminishing the energy expenditure of the dataset creation. Our findings emphasize the potential of EC-NAS by leveraging multi-objective optimization algorithms, revealing a balance between energy usage and accuracy. This suggests the feasibility of identifying energy-lean architectures with little or no compromise in performance.
- Abstract(参考訳): ディープラーニングモデルの選択、トレーニング、デプロイによるエネルギー消費は、最近大幅に増加しています。
本研究の目的は、計算資源の少ないエネルギー効率の深いディープラーニングモデルの設計を容易にし、エネルギー消費に着目して環境保全性を優先することである。
ニューラルネットワークサーチ(NAS)は、事前計算されたパフォーマンス統計によってNAS戦略を費用対効果で評価する表型ベンチマークの恩恵を受ける。
我々はNASのさらなる性能基準としてエネルギー効率を含めることを提唱する。
この目的のために,様々なアーキテクチャのエネルギー消費に関するデータを含む拡張表型ベンチマークを導入する。
EC-NASと命名されたこのベンチマークは、エネルギーを意識したNASの研究を進めるために、オープンソース形式で公開されている。
EC-NASは、サロゲートモデルを用いてエネルギー消費を予測し、データセット作成のエネルギー消費を減少させる。
本研究は,多目的最適化アルゴリズムを活用することでEC-NASの可能性を強調し,エネルギー使用量と精度のバランスを明らかにする。
このことは、パフォーマンスにほとんど、あるいは全く妥協のないエネルギリーンアーキテクチャを識別できる可能性を示唆している。
関連論文リスト
- Accel-NASBench: Sustainable Benchmarking for Accelerator-Aware NAS [3.598880812393792]
本稿では,ベンチマーク構築のコストをかなりのマージンで削減する,訓練プロキシの検索を可能にする手法を提案する。
ベンチマークは正確で,最先端のハードウェア対応モデルをコストゼロで検索できることを示す。
論文 参考訳(メタデータ) (2024-04-09T06:23:41Z) - Measuring the Energy Consumption and Efficiency of Deep Neural Networks:
An Empirical Analysis and Design Recommendations [0.49478969093606673]
BUTTER-Eデータセットは、BUTTER Empirical Deep Learningデータセットの拡張である。
このデータセットは、データセットのサイズ、ネットワーク構造、エネルギー使用の複雑な関係を明らかにする。
本稿では,ネットワークサイズ,コンピューティング,メモリ階層を考慮した,単純かつ効率的なエネルギーモデルを提案する。
論文 参考訳(メタデータ) (2024-03-13T00:27:19Z) - Robustifying and Boosting Training-Free Neural Architecture Search [49.828875134088904]
本稿では,多種多様なタスクにおいて,頑健で一貫したパフォーマンスの指標を開発するために,トレーニング不要なNAS (RoBoT) アルゴリズムを提案する。
注目すべきは、我々のRoBoTの期待性能が理論的に保証され、既存のトレーニングフリーNASよりも改善されることだ。
論文 参考訳(メタデータ) (2024-03-12T12:24:11Z) - EASRec: Elastic Architecture Search for Efficient Long-term Sequential
Recommender Systems [82.76483989905961]
現在のSRS(Sequential Recommender Systems)は、計算とリソースの非効率に悩まされている。
我々は、効率的な長期シーケンスレコメンダシステム(EASRec)のための弾性アーキテクチャー探索を開発する。
EASRecは、入力データバッチから履歴情報を活用するデータ認識ゲートを導入し、レコメンデーションネットワークの性能を改善する。
論文 参考訳(メタデータ) (2024-02-01T07:22:52Z) - Carbon-Efficient Neural Architecture Search [6.734886271130468]
本研究は, モデル設計プロセスにおいて, エネルギーコストを低減し, 炭素効率を向上させることを目的としたニューラルアーキテクチャサーチ(NAS)に対する新しいアプローチを提案する。
提案するフレームワークは, 炭素効率NAS (CE-NAS) と呼ばれ, エネルギー要求の異なるNAS評価アルゴリズムと多目的サンプリング戦略からなる。
最近のNASベンチマークデータセットと2つの炭素トレースを用いて、私たちのトレース駆動シミュレーションは、CE-NASが3つのベースラインよりも優れた炭素と探索効率を達成することを示した。
論文 参考訳(メタデータ) (2023-07-09T09:03:10Z) - Energy Efficiency of Training Neural Network Architectures: An Empirical
Study [11.325530936177493]
ディープラーニングモデルの評価は、伝統的に精度、F1スコア、関連する指標などの基準に焦点を当ててきた。
このようなモデルを訓練するために必要な計算は、大きな炭素フットプリントを必要とする。
本研究では, DLモデルアーキテクチャと環境影響との関係を, エネルギー消費の観点から検討した。
論文 参考訳(メタデータ) (2023-02-02T09:20:54Z) - Energy Consumption of Neural Networks on NVIDIA Edge Boards: an
Empirical Model [6.809944967863927]
近年、レイテンシの低減とデータプライバシの保護のために、ディープラーニング推論タスクの実行を、ユーザに近いネットワークのエッジにシフトする傾向があります。
本研究では,現代のエッジノードにおける推論タスクのエネルギ消費をプロファイリングすることを目的とする。
そこで我々は, 検討ボード上である推論タスクのエネルギー消費を推定できる, 単純で実用的なモデルを構築した。
論文 参考訳(メタデータ) (2022-10-04T14:12:59Z) - U-Boost NAS: Utilization-Boosted Differentiable Neural Architecture
Search [50.33956216274694]
ターゲットプラットフォームにおけるリソース利用の最適化は、DNN推論時に高いパフォーマンスを達成するための鍵となる。
本稿では,タスクの正確性や推論遅延を最適化するだけでなく,資源利用のためのハードウェア対応NASフレームワークを提案する。
我々は,従来のハードウェア対応NAS法と比較して,DNN推論の2.8~4倍の高速化を実現している。
論文 参考訳(メタデータ) (2022-03-23T13:44:15Z) - Binarized Neural Architecture Search for Efficient Object Recognition [120.23378346337311]
バイナリ化されたニューラルネットワークサーチ(BNAS)は、エッジコンピューティング用の組み込みデバイスにおいて、膨大な計算コストを削減するために、極めて圧縮されたモデルを生成する。
9,6.53%対9,7.22%の精度はCIFAR-10データセットで達成されるが、かなり圧縮されたモデルで、最先端のPC-DARTSよりも40%速い検索が可能である。
論文 参考訳(メタデータ) (2020-09-08T15:51:23Z) - Towards the Systematic Reporting of the Energy and Carbon Footprints of
Machine Learning [68.37641996188133]
我々は、リアルタイムエネルギー消費と二酸化炭素排出量を追跡するための枠組みを導入する。
エネルギー効率のよい強化学習アルゴリズムのためのリーダーボードを作成します。
炭素排出量削減とエネルギー消費削減のための戦略を提案する。
論文 参考訳(メタデータ) (2020-01-31T05:12:59Z) - NeurOpt: Neural network based optimization for building energy
management and climate control [58.06411999767069]
モデル同定のコストを削減するために,ニューラルネットワークに基づくデータ駆動制御アルゴリズムを提案する。
イタリアにある10の独立したゾーンを持つ2階建ての建物で、学習と制御のアルゴリズムを検証する。
論文 参考訳(メタデータ) (2020-01-22T00:51:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。