論文の概要: RAM-NAS: Resource-aware Multiobjective Neural Architecture Search Method for Robot Vision Tasks
- arxiv url: http://arxiv.org/abs/2509.20688v1
- Date: Thu, 25 Sep 2025 02:42:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.668469
- Title: RAM-NAS: Resource-aware Multiobjective Neural Architecture Search Method for Robot Vision Tasks
- Title(参考訳): RAM-NAS:ロボットビジョンタスクのための資源を考慮した多目的ニューラルアーキテクチャ探索手法
- Authors: Shouren Mao, Minghao Qin, Wei Dong, Huajian Liu, Yongzhuo Gao,
- Abstract要約: RAM-NASモデルは、ImageNet上で76.7%から81.4%の範囲でトップ1の精度を達成することができる。
リソースを意識した多目的NASは,ロボットのエッジハードウェアにおけるモデルの推論遅延を大幅に低減する。
- 参考スコア(独自算出の注目度): 5.7971597593625015
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural architecture search (NAS) has shown great promise in automatically designing lightweight models. However, conventional approaches are insufficient in training the supernet and pay little attention to actual robot hardware resources. To meet such challenges, we propose RAM-NAS, a resource-aware multi-objective NAS method that focuses on improving the supernet pretrain and resource-awareness on robot hardware devices. We introduce the concept of subnets mutual distillation, which refers to mutually distilling all subnets sampled by the sandwich rule. Additionally, we utilize the Decoupled Knowledge Distillation (DKD) loss to enhance logits distillation performance. To expedite the search process with consideration for hardware resources, we used data from three types of robotic edge hardware to train Latency Surrogate predictors. These predictors facilitated the estimation of hardware inference latency during the search phase, enabling a unified multi-objective evolutionary search to balance model accuracy and latency trade-offs. Our discovered model family, RAM-NAS models, can achieve top-1 accuracy ranging from 76.7% to 81.4% on ImageNet. In addition, the resource-aware multi-objective NAS we employ significantly reduces the model's inference latency on edge hardware for robots. We conducted experiments on downstream tasks to verify the scalability of our methods. The inference time for detection and segmentation is reduced on all three hardware types compared to MobileNetv3-based methods. Our work fills the gap in NAS for robot hardware resource-aware.
- Abstract(参考訳): ニューラルアーキテクチャサーチ(NAS)は、軽量モデルの自動設計において非常に有望である。
しかし、従来のアプローチではスーパーネットのトレーニングには不十分であり、実際のロボットハードウェアリソースにはほとんど注意を払わない。
このような課題に対処するため、我々は、ロボットハードウェアデバイスにおけるスーパーネット事前学習とリソース認識の改善に焦点を当てた、リソース対応多目的NAS手法であるRAM-NASを提案する。
サンドイッチ法により採取された全サブネットを相互蒸留することを目的としたサブネット相互蒸留の概念を導入する。
さらに,脱カップリング知識蒸留(DKD)の損失を利用して,ロジット蒸留性能を向上させる。
ハードウェア資源を考慮した探索を高速化するため,ロボットエッジハードウェアの3種類のデータを用いて遅延サロゲート予測器の訓練を行った。
これらの予測器は、検索フェーズ中にハードウェアの推論遅延を推定し、モデル精度と遅延トレードオフのバランスをとるために、統合された多目的進化探索を可能にする。
発見されたモデルファミリーであるRAM-NASモデルは、ImageNet上で76.7%から81.4%の範囲でトップ1の精度を達成できる。
さらに,リソースを意識した多目的NASは,ロボットのエッジハードウェアにおける推論遅延を大幅に低減する。
提案手法のスケーラビリティを検証するために,下流タスクの実験を行った。
MobileNetv3ベースの手法と比較して、3つのハードウェアタイプすべてにおいて、検出とセグメンテーションの推論時間が短縮される。
我々の研究は、ロボットハードウェアのリソース認識におけるNASのギャップを埋める。
関連論文リスト
- Multi-objective Differentiable Neural Architecture Search [58.67218773054753]
我々は,ユーザの好みをトレードオフ性能やハードウェアメトリクスにエンコードするNASアルゴリズムを提案する。
提案手法は,既存のMOO NAS手法を,定性的に異なる検索空間やデータセットの広い範囲で性能良くする。
論文 参考訳(メタデータ) (2024-02-28T10:09:04Z) - Search-time Efficient Device Constraints-Aware Neural Architecture
Search [6.527454079441765]
コンピュータビジョンや自然言語処理といったディープラーニング技術は、計算コストが高く、メモリ集約的です。
ニューラルアーキテクチャサーチ(NAS)によるデバイス制約に最適化されたタスク固有のディープラーニングアーキテクチャの構築を自動化する。
本稿では,エッジデバイス制約を組み込んだ高速ニューラルネットワークアーキテクチャ探索の原理的手法であるDCA-NASを提案する。
論文 参考訳(メタデータ) (2023-07-10T09:52:28Z) - Lightweight Neural Architecture Search for Temporal Convolutional
Networks at the Edge [21.72253397805102]
この研究は特に、時系列処理のための畳み込みモデルであるTCN(Temporal Convolutional Networks)に焦点を当てている。
我々は,TNの最も特異なアーキテクチャパラメータの最適化を明示的に目標とする最初のNASツールを提案する。
提案したNASは,音声および生体信号を含む4つの実世界のエッジ関連タスクでテストする。
論文 参考訳(メタデータ) (2023-01-24T19:47:40Z) - MAPLE-X: Latency Prediction with Explicit Microprocessor Prior Knowledge [87.41163540910854]
ディープニューラルネットワーク(DNN)レイテンシのキャラクタリゼーションは、時間を要するプロセスである。
ハードウェアデバイスの事前知識とDNNアーキテクチャのレイテンシを具体化し,MAPLEを拡張したMAPLE-Xを提案する。
論文 参考訳(メタデータ) (2022-05-25T11:08:20Z) - PVNAS: 3D Neural Architecture Search with Point-Voxel Convolution [26.059213743430192]
効率の観点から3次元深層学習について検討する。
ハードウェア効率の良い新しい3DプリミティブであるPoint-Voxel Convolution(PVConv)を提案する。
論文 参考訳(メタデータ) (2022-04-25T17:13:55Z) - U-Boost NAS: Utilization-Boosted Differentiable Neural Architecture
Search [50.33956216274694]
ターゲットプラットフォームにおけるリソース利用の最適化は、DNN推論時に高いパフォーマンスを達成するための鍵となる。
本稿では,タスクの正確性や推論遅延を最適化するだけでなく,資源利用のためのハードウェア対応NASフレームワークを提案する。
我々は,従来のハードウェア対応NAS法と比較して,DNN推論の2.8~4倍の高速化を実現している。
論文 参考訳(メタデータ) (2022-03-23T13:44:15Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。