論文の概要: MARCO: Hardware-Aware Neural Architecture Search for Edge Devices with Multi-Agent Reinforcement Learning and Conformal Prediction Filtering
- arxiv url: http://arxiv.org/abs/2506.13755v1
- Date: Mon, 16 Jun 2025 17:58:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:49.207409
- Title: MARCO: Hardware-Aware Neural Architecture Search for Edge Devices with Multi-Agent Reinforcement Learning and Conformal Prediction Filtering
- Title(参考訳): MARCO:マルチエージェント強化学習と等角予測フィルタを用いたエッジデバイスのためのハードウェア対応ニューラルネットワーク探索
- Authors: Arya Fayyazi, Mehdi Kamal, Massoud Pedram,
- Abstract要約: MARCOは、リソース制約のあるエッジデバイスをターゲットにした、効率的なニューラルネットワーク探索(NAS)のためのハードウェア対応フレームワークである。
MARCOは、自動DNN設計とエッジAIデプロイメントのためのCADとのギャップを埋める。
MARCOはOFAベースラインに比べて検索時間全体の3,4倍の削減を実現している。
- 参考スコア(独自算出の注目度): 4.825037489691159
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces MARCO (Multi-Agent Reinforcement learning with Conformal Optimization), a novel hardware-aware framework for efficient neural architecture search (NAS) targeting resource-constrained edge devices. By significantly reducing search time and maintaining accuracy under strict hardware constraints, MARCO bridges the gap between automated DNN design and CAD for edge AI deployment. MARCO's core technical contribution lies in its unique combination of multi-agent reinforcement learning (MARL) with Conformal Prediction (CP) to accelerate the hardware/software co-design process for deploying deep neural networks. Unlike conventional once-for-all (OFA) supernet approaches that require extensive pretraining, MARCO decomposes the NAS task into a hardware configuration agent (HCA) and a Quantization Agent (QA). The HCA optimizes high-level design parameters, while the QA determines per-layer bit-widths under strict memory and latency budgets using a shared reward signal within a centralized-critic, decentralized-execution (CTDE) paradigm. A key innovation is the integration of a calibrated CP surrogate model that provides statistical guarantees (with a user-defined miscoverage rate) to prune unpromising candidate architectures before incurring the high costs of partial training or hardware simulation. This early filtering drastically reduces the search space while ensuring that high-quality designs are retained with a high probability. Extensive experiments on MNIST, CIFAR-10, and CIFAR-100 demonstrate that MARCO achieves a 3-4x reduction in total search time compared to an OFA baseline while maintaining near-baseline accuracy (within 0.3%). Furthermore, MARCO also reduces inference latency. Validation on a MAX78000 evaluation board confirms that simulator trends hold in practice, with simulator estimates deviating from measured values by less than 5%.
- Abstract(参考訳): 本稿では,資源制約のあるエッジデバイスを対象とした,効率的なニューラルネットワーク探索(NAS)のためのハードウェア対応フレームワークであるMARCO(Multi-Agent Reinforcement Learning with Conformal Optimization)を紹介する。
厳格なハードウェア制約下での検索時間を著しく短縮し、精度を維持することで、MARCOは自動DNN設計とエッジAIデプロイメントのためのCADの間のギャップを埋める。
MARCOの中核的な技術的貢献は、深層ニューラルネットワークをデプロイするためのハードウェア/ソフトウェア共同設計プロセスを加速するために、マルチエージェント強化学習(MARL)とコンフォーマル予測(CP)のユニークな組み合わせにある。
MARCOはNASタスクをハードウェア構成エージェント(HCA)と量子化エージェント(QA)に分解する。
HCAは高レベルの設計パラメータを最適化し、QAは、集中的批判的分散実行(CTDE)パラダイム内で共有報酬信号を使用して、厳格なメモリと遅延予算の下で層ごとのビット幅を決定する。
重要な革新は、偏りのあるCPサロゲートモデルの統合であり、これは、部分的トレーニングやハードウェアシミュレーションのコストが高くなる前に、未証明のアーキテクチャを創出するための統計的保証(ユーザ定義の誤発見率を含む)を提供する。
この早期フィルタリングは検索空間を大幅に減らし、高品質な設計が高い確率で維持されることを保証する。
MNIST、CIFAR-10、CIFAR-100の大規模な実験により、MARCOはOFAベースラインに比べて3,4倍の検索時間を短縮し、ほぼベースライン精度(0.3%)を維持した。
さらに、MARCOは推論遅延を低減する。
MAX78000の評価ボードでの検証では、シミュレータの傾向が実際に保たれていることを確認し、シミュレータの見積もりは測定値から5%以下にずれている。
関連論文リスト
- MONAS: Efficient Zero-Shot Neural Architecture Search for MCUs [5.321424657585365]
MONASは、エッジコンピューティングのマイクロコントローラ(MCU)用に特別に設計された、ゼロショットNASフレームワークである。
MONASは、MCUをターゲットとした以前の作業よりも1104倍の検索効率向上を実現している。
MONASは、より一般的なNASアプローチと同じような精度を維持しながら、MCUの3.23倍高速な推測でCNNモデルを発見することができる。
論文 参考訳(メタデータ) (2024-08-26T10:24:45Z) - Joint Pruning and Channel-wise Mixed-Precision Quantization for Efficient Deep Neural Networks [10.229120811024162]
ディープニューラルネットワーク(DNN)は、エッジデバイスへのデプロイメントに重大な課題をもたらす。
この問題に対処する一般的なアプローチは、プルーニングと混合精度量子化である。
そこで本研究では,軽量な勾配探索を用いて共同で適用するための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-07-01T08:07:02Z) - On-Chip Hardware-Aware Quantization for Mixed Precision Neural Networks [52.97107229149988]
エッジデバイス上でハードウェア対応の混合精度量子化を行うOn-Chipハードウェア・アウェア量子化フレームワークを提案する。
このパイプラインは、量子化プロセスが量子化演算子の実際のハードウェア効率を知覚することを可能にする。
精度測定のために,マルチチップシナリオにおける演算子の精度への影響を効果的に推定するMask-Guided Quantization Estimation技術を提案する。
論文 参考訳(メタデータ) (2023-09-05T04:39:34Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - ATCN: Resource-Efficient Processing of Time Series on Edge [3.883460584034766]
本稿では,高速な分類と時系列予測のために,アジャイル時間畳み込みネットワーク(ATCN)と呼ばれるスケーラブルなディープラーニングモデルを提案する。
ATCNは主に、ウェアラブルバイオメディカルデバイスやリアルタイム信頼性監視システムなど、非常に限られたパフォーマンスとメモリを備えた組み込みエッジデバイス向けに設計されている。
論文 参考訳(メタデータ) (2020-11-10T17:26:49Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - HAPI: Hardware-Aware Progressive Inference [18.214367595727037]
畳み込みニューラルネットワーク(CNN)は最近、AIタスクの多様性における最先端技術となっている。
その人気にもかかわらず、CNN推論は依然として高い計算コストがかかる。
本研究は,ハイパフォーマンス・アーリーエグジット・ネットワークを創出するための新しい手法であるHAPIを提案する。
論文 参考訳(メタデータ) (2020-08-10T09:55:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。