論文の概要: Kernel-Level Energy-Efficient Neural Architecture Search for Tabular Dataset
- arxiv url: http://arxiv.org/abs/2504.08359v1
- Date: Fri, 11 Apr 2025 08:48:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-14 14:19:51.459644
- Title: Kernel-Level Energy-Efficient Neural Architecture Search for Tabular Dataset
- Title(参考訳): タブラルデータセットのカーネルレベルエネルギー効率の良いニューラルアーキテクチャ探索
- Authors: Hoang-Loc La, Phuong Hoai Ha,
- Abstract要約: 本稿では,許容精度を維持しつつエネルギー消費を最小限に抑えるアーキテクチャの同定に焦点をあてた,エネルギー効率の高いニューラルアーキテクチャ探索(NAS)手法を提案する。
注目すべきは、この手法によって提案される最適アーキテクチャは、従来のNASが推奨するアーキテクチャと比較して、エネルギー消費を最大92%削減することができることである。
- 参考スコア(独自算出の注目度): 0.7136205674624813
- License:
- Abstract: Many studies estimate energy consumption using proxy metrics like memory usage, FLOPs, and inference latency, with the assumption that reducing these metrics will also lower energy consumption in neural networks. This paper, however, takes a different approach by introducing an energy-efficient Neural Architecture Search (NAS) method that directly focuses on identifying architectures that minimize energy consumption while maintaining acceptable accuracy. Unlike previous methods that primarily target vision and language tasks, the approach proposed here specifically addresses tabular datasets. Remarkably, the optimal architecture suggested by this method can reduce energy consumption by up to 92% compared to architectures recommended by conventional NAS.
- Abstract(参考訳): 多くの研究は、メモリ使用量、FLOP、推論遅延といったプロキシメトリクスを使用してエネルギー消費量を見積もっている。
しかし,本稿では,エネルギー消費を最小限に抑えつつ,許容精度を維持しつつ,エネルギー消費を最小化するアーキテクチャの同定に直接焦点を絞った,エネルギー効率の高いニューラルアーキテクチャサーチ(NAS)手法を導入することで,異なるアプローチを採っている。
視覚と言語タスクを主に対象とする従来の方法とは異なり、ここで提案されたアプローチは特に表形式のデータセットに対処する。
注目すべきは、この手法によって提案される最適アーキテクチャは、従来のNASが推奨するアーキテクチャと比較して、エネルギー消費を最大92%削減することができることである。
関連論文リスト
- Reconsidering the energy efficiency of spiking neural networks [4.37952937111446]
スパイキングニューラルネットワーク(SNN)は乗算を使わないため、一般的にエネルギー効率が高いと考えられている。
ハードウェアの観点から,ニューラルネットワーク(ANN)とSNNのエネルギー消費の比較を行った。
論文 参考訳(メタデータ) (2024-08-29T07:00:35Z) - Revisiting DNN Training for Intermittently-Powered Energy-Harvesting Micro-Computers [0.6721767679705013]
本研究では,エネルギー制約環境下でのディープニューラルネットワークに適した新しいトレーニング手法を紹介し,評価する。
本稿では,デバイスアーキテクチャとエネルギー可用性の変動性の両方に適応する動的ドロップアウト手法を提案する。
予備的な結果は、この戦略が5%未満の計算量を持つ最先端技術と比較して6~22%の精度向上をもたらすことを示している。
論文 参考訳(メタデータ) (2024-08-25T01:13:00Z) - Measuring the Energy Consumption and Efficiency of Deep Neural Networks:
An Empirical Analysis and Design Recommendations [0.49478969093606673]
BUTTER-Eデータセットは、BUTTER Empirical Deep Learningデータセットの拡張である。
このデータセットは、データセットのサイズ、ネットワーク構造、エネルギー使用の複雑な関係を明らかにする。
本稿では,ネットワークサイズ,コンピューティング,メモリ階層を考慮した,単純かつ効率的なエネルギーモデルを提案する。
論文 参考訳(メタデータ) (2024-03-13T00:27:19Z) - EC-NAS: Energy Consumption Aware Tabular Benchmarks for Neural Architecture Search [7.178157652947453]
ディープラーニングモデルの選択、トレーニング、デプロイによるエネルギー消費は、最近大幅に増加しています。
この研究は、計算資源の少ないエネルギー効率の高いディープラーニングモデルの設計を容易にすることを目的としている。
論文 参考訳(メタデータ) (2022-10-12T08:39:35Z) - Energy Consumption of Neural Networks on NVIDIA Edge Boards: an
Empirical Model [6.809944967863927]
近年、レイテンシの低減とデータプライバシの保護のために、ディープラーニング推論タスクの実行を、ユーザに近いネットワークのエッジにシフトする傾向があります。
本研究では,現代のエッジノードにおける推論タスクのエネルギ消費をプロファイリングすることを目的とする。
そこで我々は, 検討ボード上である推論タスクのエネルギー消費を推定できる, 単純で実用的なモデルを構築した。
論文 参考訳(メタデータ) (2022-10-04T14:12:59Z) - Neural Architecture Search for Speech Emotion Recognition [72.1966266171951]
本稿では,SERモデルの自動構成にニューラルアーキテクチャサーチ(NAS)技術を適用することを提案する。
NASはモデルパラメータサイズを維持しながらSER性能(54.89%から56.28%)を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-03-31T10:16:10Z) - Neural Architecture Search for Efficient Uncalibrated Deep Photometric
Stereo [105.05232615226602]
差別化可能なニューラルアーキテクチャサーチ(NAS)戦略を利用して、非校正型PSアーキテクチャを自動的に見つける。
DiLiGenTデータセットの実験では、自動検索されたニューラルネットワークのパフォーマンスが、最先端の未校正PSメソッドと好適に比較されている。
論文 参考訳(メタデータ) (2021-10-11T21:22:17Z) - D-DARTS: Distributed Differentiable Architecture Search [75.12821786565318]
微分可能なArchiTecture Search(DARTS)は、最も流行しているニューラルネットワークサーチ(NAS)の1つである。
セルレベルで複数のニューラルネットワークをネストすることでこの問題に対処する新しいソリューションD-DARTSを提案する。
論文 参考訳(メタデータ) (2021-08-20T09:07:01Z) - iDARTS: Differentiable Architecture Search with Stochastic Implicit
Gradients [75.41173109807735]
微分可能なArchiTecture Search(DARTS)は先日,ニューラルアーキテクチャサーチ(NAS)の主流になった。
暗黙の関数定理に基づいてDARTSの過次計算に取り組む。
提案手法であるiDARTSのアーキテクチャ最適化は,定常点に収束することが期待される。
論文 参考訳(メタデータ) (2021-06-21T00:44:11Z) - Energy-Efficient Model Compression and Splitting for Collaborative
Inference Over Time-Varying Channels [52.60092598312894]
本稿では,エッジノードとリモートノード間のモデル圧縮と時間変化モデル分割を利用して,エッジデバイスにおける総エネルギーコストを削減する手法を提案する。
提案手法は, 検討されたベースラインと比較して, エネルギー消費が最小限であり, 排出コストが$CO$となる。
論文 参考訳(メタデータ) (2021-06-02T07:36:27Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。