論文の概要: AEBNAS: Strengthening Exit Branches in Early-Exit Networks through Hardware-Aware Neural Architecture Search
- arxiv url: http://arxiv.org/abs/2512.10671v1
- Date: Thu, 11 Dec 2025 14:17:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.405474
- Title: AEBNAS: Strengthening Exit Branches in Early-Exit Networks through Hardware-Aware Neural Architecture Search
- Title(参考訳): AEBNAS:ハードウェア対応ニューラルアーキテクチャサーチによるアーリーエグジットネットワークにおけるエグジットブランチの強化
- Authors: Oscar Robben, Saeed Khalilian, Nirvana Meratnia,
- Abstract要約: 早期排他的ネットワークは、ディープラーニングモデルの全体的なエネルギー消費とレイテンシを低減する効果的なソリューションである。
最近の研究は、より効率的なアーリーエグジットネットワークの設計にニューラルアーキテクチャサーチ(NAS)を利用している。
本稿では,ハードウェア対応NASを用いて,最適化時の精度と効率性を両立させ,出口分岐を強化する。
- 参考スコア(独自算出の注目度): 0.8793721044482612
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Early-exit networks are effective solutions for reducing the overall energy consumption and latency of deep learning models by adjusting computation based on the complexity of input data. By incorporating intermediate exit branches into the architecture, they provide less computation for simpler samples, which is particularly beneficial for resource-constrained devices where energy consumption is crucial. However, designing early-exit networks is a challenging and time-consuming process due to the need to balance efficiency and performance. Recent works have utilized Neural Architecture Search (NAS) to design more efficient early-exit networks, aiming to reduce average latency while improving model accuracy by determining the best positions and number of exit branches in the architecture. Another important factor affecting the efficiency and accuracy of early-exit networks is the depth and types of layers in the exit branches. In this paper, we use hardware-aware NAS to strengthen exit branches, considering both accuracy and efficiency during optimization. Our performance evaluation on the CIFAR-10, CIFAR-100, and SVHN datasets demonstrates that our proposed framework, which considers varying depths and layers for exit branches along with adaptive threshold tuning, designs early-exit networks that achieve higher accuracy with the same or lower average number of MACs compared to the state-of-the-art approaches.
- Abstract(参考訳): 入力データの複雑さに基づいて計算を調整することにより、ディープラーニングモデルの全体的なエネルギー消費と遅延を低減するための効果的な解法として、アーリーエグジットネットワークがある。
中間出口分岐をアーキテクチャに組み込むことで、より単純なサンプルに対する計算がより少なくなり、特にエネルギー消費が不可欠であるリソース制約のデバイスにとって有益である。
しかし、ネットワークを早期に設計することは、効率と性能のバランスをとる必要があるため、困難で時間を要するプロセスである。
最近の研究では、ニューラルネットワークサーチ(NAS)を用いてより効率的な早期退避ネットワークを設計し、アーキテクチャにおける最適な位置と出口枝数を決定することにより、モデルの精度を改善しながら平均遅延を低減することを目指している。
アーリーエグジットネットワークの効率性と正確性に影響を与えるもう1つの重要な要因は、出口枝の深さと層の種類である。
本稿では,ハードウェア対応NASを用いて,最適化時の精度と効率性を両立させ,出口分岐を強化する。
CIFAR-10, CIFAR-100, SVHNデータセットの性能評価は, 適応しきい値調整とともに出口枝の深さや層の変化を考慮し, 最先端の手法と比較して, MACの最大またはより低い平均値で精度の高いネットワークを設計したことを示す。
関連論文リスト
- Hardware-aware Neural Architecture Search of Early Exiting Networks on Edge Accelerators [12.394874144369396]
エッジでの組み込みインテリジェンスに対する需要の増加は、厳密な計算とエネルギーの制約を課している。
将来性のあるソリューションとして、Early Exiting Neural Networks (EENN)が登場した。
ネットワークバックボーン内の早期終了点の配置を最適化するハードウェア対応ニューラルアーキテクチャサーチ(NAS)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-12-04T11:54:09Z) - USEFUSE: Uniform Stride for Enhanced Performance in Fused Layer Architecture of Deep Neural Networks [0.6435156676256051]
本研究では,低レイテンシ左から右へのビットシリアル演算を用いた畳み込みのためのSum-of-Products (SOP)ユニットを提案する。
有効メカニズムは、ReLU層の後、非効率な畳み込みを検出し、スキップし、消費電力を最小化する。
ひとつはミッションクリティカルなアプリケーションの応答時間を最小限にすること、もうひとつはリソースに制約のあるデバイスに同じレイテンシでフォーカスすることである。
論文 参考訳(メタデータ) (2024-12-18T11:04:58Z) - Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - ATHEENA: A Toolflow for Hardware Early-Exit Network Automation [10.473267144593422]
ATHEENA (Aware Early-Exit Network Automation) のためのツールフロー
このようなネットワークから早期に抜け出すサンプルの確率を利用して、ネットワークの異なるセクションに割り当てられたリソースをスケールするツールフロー。
論文 参考訳(メタデータ) (2023-04-17T16:06:58Z) - Multi-Exit Semantic Segmentation Networks [78.44441236864057]
本稿では,最先端セグメンテーションモデルをMESSネットワークに変換するフレームワークを提案する。
パラメトリド早期出口を用いた特別訓練されたCNNは、より簡単なサンプルの推測時に、その深さに沿って保存する。
接続されたセグメンテーションヘッドの数、配置、アーキテクチャとエグジットポリシーを併用して、デバイス機能とアプリケーション固有の要件に適応する。
論文 参考訳(メタデータ) (2021-06-07T11:37:03Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - HAPI: Hardware-Aware Progressive Inference [18.214367595727037]
畳み込みニューラルネットワーク(CNN)は最近、AIタスクの多様性における最先端技術となっている。
その人気にもかかわらず、CNN推論は依然として高い計算コストがかかる。
本研究は,ハイパフォーマンス・アーリーエグジット・ネットワークを創出するための新しい手法であるHAPIを提案する。
論文 参考訳(メタデータ) (2020-08-10T09:55:18Z) - ALF: Autoencoder-based Low-rank Filter-sharing for Efficient
Convolutional Neural Networks [63.91384986073851]
オートエンコーダを用いた低ランクフィルタ共有技術(ALF)を提案する。
ALFは、ネットワークパラメータの70%、オペレーションの61%、実行時間の41%を削減し、精度の低下を最小限にしている。
論文 参考訳(メタデータ) (2020-07-27T09:01:22Z) - FBNetV3: Joint Architecture-Recipe Search using Predictor Pretraining [65.39532971991778]
サンプル選択とランキングの両方を導くことで、アーキテクチャとトレーニングのレシピを共同でスコアする精度予測器を提案する。
高速な進化的検索をCPU分で実行し、さまざまなリソース制約に対するアーキテクチャと準備のペアを生成します。
FBNetV3は最先端のコンパクトニューラルネットワークのファミリーを構成しており、自動と手動で設計された競合より優れている。
論文 参考訳(メタデータ) (2020-06-03T05:20:21Z) - Stage-Wise Neural Architecture Search [65.03109178056937]
ResNetやNASNetのような現代の畳み込みネットワークは、多くのコンピュータビジョンアプリケーションで最先端の結果を得た。
これらのネットワークは、同じ解像度で表現を操作するレイヤのセットであるステージで構成されている。
各ステージにおけるレイヤー数の増加はネットワークの予測能力を向上させることが示されている。
しかし、結果として得られるアーキテクチャは、浮動小数点演算、メモリ要求、推論時間の観点から計算的に高価になる。
論文 参考訳(メタデータ) (2020-04-23T14:16:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。