論文の概要: Enhanced Gradient for Differentiable Architecture Search
- arxiv url: http://arxiv.org/abs/2103.12529v1
- Date: Tue, 23 Mar 2021 13:27:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-24 13:51:54.752170
- Title: Enhanced Gradient for Differentiable Architecture Search
- Title(参考訳): 微分可能アーキテクチャ探索のための拡張勾配
- Authors: Haichao Zhang, Kuangrong Hao, Lei Gao, Xuesong Tang, and Bing Wei
- Abstract要約: ネットワーク性能の同時改善とネットワークの複雑性低減を目的としたニューラルネットワークアーキテクチャ探索アルゴリズムを提案する。
提案するフレームワークは,ブロックレベルの検索とネットワークレベルの検索という2段階のネットワークアーキテクチャを自動構築する。
実験の結果,本手法は画像分類において,すべての手作りネットワークよりも優れていた。
- 参考スコア(独自算出の注目度): 17.431144144044968
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, neural architecture search (NAS) methods have been proposed
for the automatic generation of task-oriented network architecture in image
classification. However, the architectures obtained by existing NAS approaches
are optimized only for classification performance and do not adapt to devices
with limited computational resources. To address this challenge, we propose a
neural network architecture search algorithm aiming to simultaneously improve
network performance (e.g., classification accuracy) and reduce network
complexity. The proposed framework automatically builds the network
architecture at two stages: block-level search and network-level search. At the
stage of block-level search, a relaxation method based on the gradient is
proposed, using an enhanced gradient to design high-performance and
low-complexity blocks. At the stage of network-level search, we apply an
evolutionary multi-objective algorithm to complete the automatic design from
blocks to the target network. The experiment results demonstrate that our
method outperforms all evaluated hand-crafted networks in image classification,
with an error rate of on CIFAR10 and an error rate of on CIFAR100, both at
network parameter size less than one megabit. Moreover, compared with other
neural architecture search methods, our method offers a tremendous reduction in
designed network architecture parameters.
- Abstract(参考訳): 近年,画像分類におけるタスク指向ネットワークアーキテクチャの自動生成のためのニューラルアーキテクチャ探索(nas)手法が提案されている。
しかし、既存のNASアプローチで得られたアーキテクチャは分類性能にのみ最適化されており、限られた計算資源を持つデバイスに適応しない。
そこで本研究では,ネットワーク性能の向上(分類精度など)とネットワーク複雑性の低減を目的としたニューラルネットワークアーキテクチャ探索アルゴリズムを提案する。
提案フレームワークは,ブロックレベルの検索とネットワークレベルの検索という2段階のネットワークアーキテクチャを自動構築する。
ブロックレベル探索の段階では、高機能かつ低複雑さなブロックを設計するための拡張勾配を用いて勾配に基づく緩和法を提案する。
ネットワークレベル探索の段階では、ブロックから対象ネットワークへの自動設計を完了させるために進化的多目的アルゴリズムを適用する。
提案手法は,CIFAR10の誤差率とCIFAR100の誤差率で,画像分類において評価されたすべての手作りネットワークより優れており,どちらも1メガビット未満のネットワークパラメータサイズである。
さらに,他のニューラルアーキテクチャ探索法と比較して,設計したネットワークアーキテクチャパラメータが大幅に削減される。
関連論文リスト
- TS-ENAS:Two-Stage Evolution for Cell-based Network Architecture Search [3.267963071384687]
セルベースネットワークアーキテクチャサーチ(TS-ENAS)のための2段階進化法を提案する。
提案アルゴリズムでは,新たなセルベース検索空間と2段階符号化方式を設計し,セルとニューラルネットワーク構造を表現する。
実験により、TS-ENASは、比較性能でニューラルネットワークアーキテクチャをより効果的に見つけることができることが示された。
論文 参考訳(メタデータ) (2023-10-14T08:02:01Z) - FlowNAS: Neural Architecture Search for Optical Flow Estimation [65.44079917247369]
本研究では,フロー推定タスクにおいて,より優れたエンコーダアーキテクチャを自動で見つけるために,FlowNASというニューラルアーキテクチャ探索手法を提案する。
実験の結果、スーパーネットワークから受け継いだ重み付きアーキテクチャは、KITTI上で4.67%のF1-allエラーを達成していることがわかった。
論文 参考訳(メタデータ) (2022-07-04T09:05:25Z) - Search Space Adaptation for Differentiable Neural Architecture Search in
Image Classification [15.641353388251465]
微分可能なニューラルネットワークサーチ(NAS)は、検索コストを単一のネットワークをトレーニングするレベルに削減することで大きな影響を与える。
本稿では,探索範囲を導入することで,探索空間の適応スキームを提案する。
画像分類タスクにおいて, ProxylessNAS を用いて提案手法の有効性を示す。
論文 参考訳(メタデータ) (2022-06-05T05:27:12Z) - Pruning-as-Search: Efficient Neural Architecture Search via Channel
Pruning and Structural Reparameterization [50.50023451369742]
プルーニング・アズ・サーチ(Pruning-as-Search、PaS)は、必要なサブネットワークを自動的に効率的に検索するエンドツーエンドのプルーニング手法である。
提案したアーキテクチャは,ImageNet-1000分類タスクにおいて,1.0%$ Top-1精度で先行技術より優れていた。
論文 参考訳(メタデータ) (2022-06-02T17:58:54Z) - ISTA-NAS: Efficient and Consistent Neural Architecture Search by Sparse
Coding [86.40042104698792]
スパース符号問題としてニューラルアーキテクチャ探索を定式化する。
実験では、CIFAR-10の2段階法では、検索にわずか0.05GPUしか必要としない。
本手法は,CIFAR-10とImageNetの両方において,評価時間のみのコストで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-10-13T04:34:24Z) - Neural Architecture Search as Sparse Supernet [78.09905626281046]
本稿では,単一パスと複数パスの探索から混合パスの自動探索へ,ニューラルネットワーク探索(NAS)の問題を拡大することを目的とする。
我々はNAS問題をスパース・スーパーネットとして,空間制約を混合した新しい連続アーキテクチャ表現を用いてモデル化する。
スパーススーパーネットは、コンパクトなノードセット上でスパース混合パスを自動的に達成する。
論文 参考訳(メタデータ) (2020-07-31T14:51:52Z) - AlphaGAN: Fully Differentiable Architecture Search for Generative
Adversarial Networks [15.740179244963116]
GAN (Generative Adversarial Networks) はミニマックスゲーム問題として定式化され、ジェネレータは差別者に対する対戦学習によって実際のデータ分布にアプローチしようとする。
本研究は,ネットワークアーキテクチャの観点からのモデル学習を促進することを目的として,GANに自動アーキテクチャ探索の最近の進歩を取り入れた。
我々は,αGANと呼ばれる,生成的敵ネットワークのための,完全に差別化可能な検索フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-16T13:27:30Z) - DC-NAS: Divide-and-Conquer Neural Architecture Search [108.57785531758076]
本稿では,ディープ・ニューラル・アーキテクチャーを効果的かつ効率的に探索するためのディバイド・アンド・コンカ(DC)手法を提案する。
ImageNetデータセットで75.1%の精度を達成しており、これは同じ検索空間を使った最先端の手法よりも高い。
論文 参考訳(メタデータ) (2020-05-29T09:02:16Z) - Stage-Wise Neural Architecture Search [65.03109178056937]
ResNetやNASNetのような現代の畳み込みネットワークは、多くのコンピュータビジョンアプリケーションで最先端の結果を得た。
これらのネットワークは、同じ解像度で表現を操作するレイヤのセットであるステージで構成されている。
各ステージにおけるレイヤー数の増加はネットワークの予測能力を向上させることが示されている。
しかし、結果として得られるアーキテクチャは、浮動小数点演算、メモリ要求、推論時間の観点から計算的に高価になる。
論文 参考訳(メタデータ) (2020-04-23T14:16:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。