論文の概要: MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search
- arxiv url: http://arxiv.org/abs/2009.13940v1
- Date: Tue, 29 Sep 2020 11:56:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 05:43:47.309666
- Title: MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search
- Title(参考訳): ms-ranas: マルチスケールなリソースアウェアニューラルアーキテクチャ検索
- Authors: Cristian Cioflan, Radu Timofte
- Abstract要約: 我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
- 参考スコア(独自算出の注目度): 94.80212602202518
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Architecture Search (NAS) has proved effective in offering
outperforming alternatives to handcrafted neural networks. In this paper we
analyse the benefits of NAS for image classification tasks under strict
computational constraints. Our aim is to automate the design of highly
efficient deep neural networks, capable of offering fast and accurate
predictions and that could be deployed on a low-memory, low-power
system-on-chip. The task thus becomes a three-party trade-off between accuracy,
computational complexity, and memory requirements. To address this concern, we
propose Multi-Scale Resource-Aware Neural Architecture Search (MS-RANAS). We
employ a one-shot architecture search approach in order to obtain a reduced
search cost and we focus on an anytime prediction setting. Through the usage of
multiple-scaled features and early classifiers, we achieved state-of-the-art
results in terms of accuracy-speed trade-off.
- Abstract(参考訳): ニューラルネットワーク(NAS)は、手作りニューラルネットワークよりも優れた代替手段を提供することが証明されている。
本稿では,厳密な計算制約下での画像分類タスクにおけるNASの利点を解析する。
我々の目標は、高速で正確な予測を可能にし、低メモリで低消費電力のシステムオンチップにデプロイ可能な、高効率なディープニューラルネットワークの設計を自動化することです。
このタスクは、精度、計算複雑性、メモリ要求の3つのトレードオフとなる。
そこで我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るため,ワンショットのアーキテクチャ探索手法を採用し,任意の予測設定に集中する。
マルチスケール特徴量と早期分類器の活用により,精度-速度トレードオフの観点から最先端の結果を得た。
関連論文リスト
- A Pairwise Comparison Relation-assisted Multi-objective Evolutionary Neural Architecture Search Method with Multi-population Mechanism [58.855741970337675]
ニューラルアーキテクチャサーチ(NAS)により、リサーチ者は広大なサーチスペースを自動的に探索し、効率的なニューラルネットワークを見つけることができる。
NASは重要なボトルネックに悩まされており、探索プロセス中に多くのアーキテクチャを評価する必要がある。
SMEM-NASは,多集団構造に基づく多目的進化アルゴリズムである。
論文 参考訳(メタデータ) (2024-07-22T12:46:22Z) - DNA Family: Boosting Weight-Sharing NAS with Block-Wise Supervisions [121.05720140641189]
蒸留型ニューラルアーキテクチャ(DNA)技術を用いたモデル群を開発した。
提案するDNAモデルでは,アルゴリズムを用いてサブサーチ空間にのみアクセス可能な従来の手法とは対照的に,すべてのアーキテクチャ候補を評価できる。
当社のモデルでは,モバイルコンボリューションネットワークと小型ビジョントランスフォーマーにおいて,ImageNet上で78.9%,83.6%の最先端トップ1精度を実現している。
論文 参考訳(メタデータ) (2024-03-02T22:16:47Z) - DONNAv2 -- Lightweight Neural Architecture Search for Vision tasks [6.628409795264665]
計算効率の良いニューラルアーキテクチャ蒸留 - DONNAv2 のための次世代ニューラルアーキテクチャ設計について述べる。
DONNAv2は、より大きなデータセットに対して、DONNAの計算コストを10倍削減する。
NASサーチスペースの品質を向上させるため、DONNAv2はブロック知識蒸留フィルタを利用して推論コストの高いブロックを除去する。
論文 参考訳(メタデータ) (2023-09-26T04:48:50Z) - A Survey on Multi-Objective Neural Architecture Search [9.176056742068813]
マルチオブジェクトニューラルアーキテクチャサーチ(MONAS)が注目されている。
本論では, モナスの分野における主要・最先端の著作の概要について述べる。
論文 参考訳(メタデータ) (2023-07-18T09:42:51Z) - IQNAS: Interpretable Integer Quadratic Programming Neural Architecture
Search [40.77061519007659]
適合ネットワークを見つけるための一般的なアプローチは、制約付きニューラルネットワークサーチ(NAS)である。
従来はネットワークの精度に複雑な予測器を使用していた。
IQNAS (Interpretable Quadratic Programming Neural Architecture Search) を導入する。
論文 参考訳(メタデータ) (2021-10-24T09:45:00Z) - Evolutionary Neural Architecture Search Supporting Approximate
Multipliers [0.5414308305392761]
進化的畳み込みニューラルネットワーク(CNN)のためのカルト的遺伝的プログラミングに基づく多目的NAS法を提案する。
最も適切な近似乗算器は、近似乗算器のライブラリから自動的に選択される。
進化したCNNは、CIFAR-10ベンチマーク問題に類似した複雑さを持つ一般的な人間によるCNNと比較される。
論文 参考訳(メタデータ) (2021-01-28T09:26:03Z) - NAS-Navigator: Visual Steering for Explainable One-Shot Deep Neural
Network Synthesis [53.106414896248246]
本稿では,分析者がドメイン知識を注入することで,解のサブグラフ空間を効果的に構築し,ネットワーク探索をガイドするフレームワークを提案する。
このテクニックを反復的に適用することで、アナリストは、与えられたアプリケーションに対して最高のパフォーマンスのニューラルネットワークアーキテクチャに収束することができる。
論文 参考訳(メタデータ) (2020-09-28T01:48:45Z) - FBNetV3: Joint Architecture-Recipe Search using Predictor Pretraining [65.39532971991778]
サンプル選択とランキングの両方を導くことで、アーキテクチャとトレーニングのレシピを共同でスコアする精度予測器を提案する。
高速な進化的検索をCPU分で実行し、さまざまなリソース制約に対するアーキテクチャと準備のペアを生成します。
FBNetV3は最先端のコンパクトニューラルネットワークのファミリーを構成しており、自動と手動で設計された競合より優れている。
論文 参考訳(メタデータ) (2020-06-03T05:20:21Z) - NAS-Count: Counting-by-Density with Neural Architecture Search [74.92941571724525]
ニューラルアーキテクチャサーチ(NAS)を用いたカウントモデルの設計を自動化する
エンド・ツー・エンドの検索エンコーダ・デコーダアーキテクチャであるAutomatic Multi-Scale Network(AMSNet)を導入する。
論文 参考訳(メタデータ) (2020-02-29T09:18:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。