論文の概要: Hardware-aware Neural Architecture Search of Early Exiting Networks on Edge Accelerators
- arxiv url: http://arxiv.org/abs/2512.04705v1
- Date: Thu, 04 Dec 2025 11:54:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:46.146039
- Title: Hardware-aware Neural Architecture Search of Early Exiting Networks on Edge Accelerators
- Title(参考訳): エッジアクセラレータを用いた早期排他ネットワークのハードウェア対応ニューラルアーキテクチャ探索
- Authors: Alaa Zniber, Arne Symons, Ouassim Karrakchou, Marian Verhelst, Mounir Ghogho,
- Abstract要約: エッジでの組み込みインテリジェンスに対する需要の増加は、厳密な計算とエネルギーの制約を課している。
将来性のあるソリューションとして、Early Exiting Neural Networks (EENN)が登場した。
ネットワークバックボーン内の早期終了点の配置を最適化するハードウェア対応ニューラルアーキテクチャサーチ(NAS)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 12.394874144369396
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Advancements in high-performance computing and cloud technologies have enabled the development of increasingly sophisticated Deep Learning (DL) models. However, the growing demand for embedded intelligence at the edge imposes stringent computational and energy constraints, challenging the deployment of these large-scale models. Early Exiting Neural Networks (EENN) have emerged as a promising solution, allowing dynamic termination of inference based on input complexity to enhance efficiency. Despite their potential, EENN performance is highly influenced by the heterogeneity of edge accelerators and the constraints imposed by quantization, affecting accuracy, energy efficiency, and latency. Yet, research on the automatic optimization of EENN design for edge hardware remains limited. To bridge this gap, we propose a hardware-aware Neural Architecture Search (NAS) framework that systematically integrates the effects of quantization and hardware resource allocation to optimize the placement of early exit points within a network backbone. Experimental results on the CIFAR-10 dataset demonstrate that our NAS framework can discover architectures that achieve over a 50\% reduction in computational costs compared to conventional static networks, making them more suitable for deployment in resource-constrained edge environments.
- Abstract(参考訳): 高性能コンピューティングとクラウド技術の進歩により、ますます洗練されたディープラーニング(DL)モデルの開発が可能になった。
しかし、エッジでの組み込みインテリジェンスに対する需要の高まりは、厳密な計算とエネルギーの制約を課し、これらの大規模モデルの展開に挑戦する。
ENN(Early Exiting Neural Networks)は、入力複雑性に基づいた推論の動的終了を可能とし、効率を向上する、有望なソリューションとして登場した。
その可能性にもかかわらず、EENNのパフォーマンスはエッジアクセラレータの不均一性と量子化による制約の影響を受けており、精度、エネルギー効率、レイテンシに影響を与えている。
しかし,エッジハードウェアにおけるEENN設計の自動最適化に関する研究は依然として限られている。
このギャップを埋めるために、ネットワークバックボーン内の早期終了点の配置を最適化するために、量子化とハードウェアリソース割り当ての効果を体系的に統合する、ハードウェア対応のニューラルネットワーク探索(NAS)フレームワークを提案する。
CIFAR-10データセットを用いた実験結果から,NASフレームワークは従来の静的ネットワークに比べて計算コストの50%以上削減できるアーキテクチャを発見でき,資源制約されたエッジ環境への展開に適していることが示された。
関連論文リスト
- SpikeX: Exploring Accelerator Architecture and Network-Hardware Co-Optimization for Sparse Spiking Neural Networks [3.758294848902233]
本研究では,非構造的空間性から生じる課題と機会に対処するため,Systolic-array SNNアクセラレーターアーキテクチャであるSpikeXを提案する。
SpikeXはメモリアクセスを減らし、データ共有と時間と空間にまたがる計算を対象とするハードウェア利用を増加させる。
論文 参考訳(メタデータ) (2025-05-18T08:07:44Z) - On Accelerating Edge AI: Optimizing Resource-Constrained Environments [1.7355861031903428]
リソース制約のあるエッジデプロイメントでは、厳格な計算、メモリ、エネルギー制限とハイパフォーマンスのバランスをとるAIソリューションが要求される。
本稿では,このような制約下でのディープラーニングモデルを加速するための主要な戦略について概観する。
論文 参考訳(メタデータ) (2025-01-25T01:37:03Z) - Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - SpikeBottleNet: Spike-Driven Feature Compression Architecture for Edge-Cloud Co-Inference [0.86325068644655]
エッジクラウドコ推論システムのための新しいアーキテクチャであるSpikeBottleNetを提案する。
SpikeBottleNetはスパイクニューロンモデルを統合し、エッジデバイスのエネルギー消費を大幅に削減する。
論文 参考訳(メタデータ) (2024-10-11T09:59:21Z) - Enhancing Dropout-based Bayesian Neural Networks with Multi-Exit on FPGA [20.629635991749808]
本稿では,フィールドプログラマブルゲートアレイ(FPGA)ベースのアクセラレータを効率よく生成するアルゴリズムとハードウェアの共同設計フレームワークを提案する。
アルゴリズムレベルでは、計算とメモリのオーバーヘッドを低減した、新しいマルチエグジット・ドロップアウトベースのベイズNNを提案する。
ハードウェアレベルでは,提案する効率的なベイズNNのためのFPGAベースのアクセラレータを生成するための変換フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-20T17:08:42Z) - LitE-SNN: Designing Lightweight and Efficient Spiking Neural Network through Spatial-Temporal Compressive Network Search and Joint Optimization [48.41286573672824]
スパイキングニューラルネットワーク(SNN)は人間の脳の情報処理機構を模倣し、エネルギー効率が高い。
本稿では,空間圧縮と時間圧縮の両方を自動ネットワーク設計プロセスに組み込むLitE-SNNという新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-26T05:23:11Z) - HADAS: Hardware-Aware Dynamic Neural Architecture Search for Edge
Performance Scaling [8.29394286023338]
動的ニューラルネットワーク(DyNN)は、リソース制約されたエッジデバイス上でのインテリジェンスを実現するための有効な技術となっている。
多くの場合、設計段階で基盤となるバックボーンアーキテクチャが開発されているため、DyNNの実装は準最適である。
我々は、バックボーン、早期終了機能、DVFS設定が協調的に最適化されたDyNNアーキテクチャを実現する新しいハードウェア対応動的ニューラルネットワーク探索フレームワークであるHADASを提案する。
論文 参考訳(メタデータ) (2022-12-06T22:27:00Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Computational Intelligence and Deep Learning for Next-Generation
Edge-Enabled Industrial IoT [51.68933585002123]
エッジ対応産業用IoTネットワークにおける計算知能とディープラーニング(DL)の展開方法について検討する。
本稿では,新しいマルチエグジットベースフェデレーションエッジ学習(ME-FEEL)フレームワークを提案する。
特に、提案されたME-FEELは、非常に限られたリソースを持つ産業用IoTネットワークにおいて、最大32.7%の精度を達成することができる。
論文 参考訳(メタデータ) (2021-10-28T08:14:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。