論文の概要: Disentangled Neural Architecture Search
- arxiv url: http://arxiv.org/abs/2009.13266v1
- Date: Thu, 24 Sep 2020 03:35:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 03:56:24.043303
- Title: Disentangled Neural Architecture Search
- Title(参考訳): 遠絡型ニューラルアーキテクチャサーチ
- Authors: Xinyue Zheng, Peng Wang, Qigang Wang, Zhongchao Shi
- Abstract要約: 本稿では,制御器の隠蔽表現を意味論的に意味のある概念に解き放つ,アンタングル型ニューラルネットワーク探索(DNAS)を提案する。
DNASは、オペレーションの選択、接続のスキップ、レイヤ数など、アーキテクチャ表現のアンタングルに成功している。
センスサンプリングは、より高い効率とより良いパフォーマンスでニューラルネットワーク検索につながる。
- 参考スコア(独自算出の注目度): 7.228790381070109
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural architecture search has shown its great potential in various areas
recently. However, existing methods rely heavily on a black-box controller to
search architectures, which suffers from the serious problem of lacking
interpretability. In this paper, we propose disentangled neural architecture
search (DNAS) which disentangles the hidden representation of the controller
into semantically meaningful concepts, making the neural architecture search
process interpretable. Based on systematical study, we discover the correlation
between network architecture and its performance, and propose a dense-sampling
strategy to conduct a targeted search in promising regions that may generate
well-performing architectures. We show that: 1) DNAS successfully disentangles
the architecture representations, including operation selection, skip
connections, and number of layers. 2) Benefiting from interpretability, DNAS
can find excellent architectures under different FLOPS restrictions flexibly.
3) Dense-sampling leads to neural architecture search with higher efficiency
and better performance. On the NASBench-101 dataset, DNAS achieves
state-of-the-art performance of 94.21% using less than 1/13 computational cost
of baseline methods. On ImageNet dataset, DNAS discovers the competitive
architectures that achieves 22.7% test error. our method provides a new
perspective of understanding neural architecture search.
- Abstract(参考訳): ニューラルアーキテクチャ検索は、近年、さまざまな領域で大きな可能性を秘めている。
しかし、既存の手法はアーキテクチャを検索するためにブラックボックスコントローラに大きく依存しており、解釈可能性の欠如という深刻な問題に苦しんでいる。
本稿では,制御器の隠蔽表現を意味論的に意味のある概念に分解し,ニューラルネットワーク探索プロセスの解釈を可能にする,アンタングル型ニューラルネットワーク探索(DNAS)を提案する。
ネットワークアーキテクチャとその性能の相関関係を体系的な研究から発見し,高い性能を持つアーキテクチャを生成する有望な領域をターゲットとした探索を行うための密集したサンプル戦略を提案する。
ご覧の通りです
1)DNASは,操作の選択,接続のスキップ,レイヤ数など,アーキテクチャ表現のアンタングル化に成功している。
2) 解釈性に相応しいDNAは, FLOPSの異なる制約下で柔軟に優れたアーキテクチャを見出すことができる。
3)Dense-samplingは,より効率が高く,性能も向上したニューラルアーキテクチャ検索につながる。
nasbench-101データセットでは、dnaはベースラインメソッドの計算コストが1/13未満で94.21%の最先端性能を達成している。
imagenetデータセットでは、dnasは22.7%のテストエラーを達成する競合アーキテクチャを発見する。
我々の手法は ニューラル・アーキテクチャー・サーチを理解する 新たな視点を提供する
関連論文リスト
- DNA Family: Boosting Weight-Sharing NAS with Block-Wise Supervisions [121.05720140641189]
蒸留型ニューラルアーキテクチャ(DNA)技術を用いたモデル群を開発した。
提案するDNAモデルでは,アルゴリズムを用いてサブサーチ空間にのみアクセス可能な従来の手法とは対照的に,すべてのアーキテクチャ候補を評価できる。
当社のモデルでは,モバイルコンボリューションネットワークと小型ビジョントランスフォーマーにおいて,ImageNet上で78.9%,83.6%の最先端トップ1精度を実現している。
論文 参考訳(メタデータ) (2024-03-02T22:16:47Z) - DCP-NAS: Discrepant Child-Parent Neural Architecture Search for 1-bit
CNNs [53.82853297675979]
バイナリ重みとアクティベーションを備えた1ビット畳み込みニューラルネットワーク(CNN)は、リソース制限された組み込みデバイスの可能性を示している。
自然なアプローチの1つは、NASの計算とメモリコストを削減するために1ビットCNNを使用することである。
本稿では,1ビットCNNを効率的に探索するためにDCP-NAS(Disrepant Child-Parent Neural Architecture Search)を提案する。
論文 参考訳(メタデータ) (2023-06-27T11:28:29Z) - GeNAS: Neural Architecture Search with Better Generalization [14.92869716323226]
最近のニューラルアーキテクチャサーチ(NAS)アプローチは、対象データに対して優れたネットワークを見つけるために、検証損失または精度に依存している。
そこで本研究では,より一般化した探索型アーキテクチャのためのニューラルアーキテクチャ探索手法について検討する。
論文 参考訳(メタデータ) (2023-05-15T12:44:54Z) - D-DARTS: Distributed Differentiable Architecture Search [75.12821786565318]
微分可能なArchiTecture Search(DARTS)は、最も流行しているニューラルネットワークサーチ(NAS)の1つである。
セルレベルで複数のニューラルネットワークをネストすることでこの問題に対処する新しいソリューションD-DARTSを提案する。
論文 参考訳(メタデータ) (2021-08-20T09:07:01Z) - Smooth Variational Graph Embeddings for Efficient Neural Architecture
Search [41.62970837629573]
本研究では,探索空間からニューラルネットワークをスムーズにエンコードし,正確に再構築できる2面変分グラフオートエンコーダを提案する。
ENASアプローチ,NAS-Bench-101およびNAS-Bench-201探索空間で定義されたニューラルネットワークに対する提案手法の評価を行った。
論文 参考訳(メタデータ) (2020-10-09T17:05:41Z) - NAS-Navigator: Visual Steering for Explainable One-Shot Deep Neural
Network Synthesis [53.106414896248246]
本稿では,分析者がドメイン知識を注入することで,解のサブグラフ空間を効果的に構築し,ネットワーク探索をガイドするフレームワークを提案する。
このテクニックを反復的に適用することで、アナリストは、与えられたアプリケーションに対して最高のパフォーマンスのニューラルネットワークアーキテクチャに収束することができる。
論文 参考訳(メタデータ) (2020-09-28T01:48:45Z) - Multi-Objective Neural Architecture Search Based on Diverse Structures
and Adaptive Recommendation [4.595675084986132]
畳み込みニューラルネットワーク(CNN)のためのニューラルネットワーク探索(NAS)の検索空間は巨大である。
本稿では,既存の研究結果と過去の情報を利用して,軽量かつ高精度なアーキテクチャを迅速に発見するMoARRアルゴリズムを提案する。
実験結果から,CIFAR-10上でのMoARRは6GPU時間で1.9%の誤差率と2.3Mパラメータを持つ,強力で軽量なモデルを実現することができた。
論文 参考訳(メタデータ) (2020-07-06T13:42:33Z) - DrNAS: Dirichlet Neural Architecture Search [88.56953713817545]
ディリクレ分布をモデルとした連続緩和型混合重みをランダム変数として扱う。
最近開発されたパスワイズ微分により、ディリクレパラメータは勾配に基づく一般化で容易に最適化できる。
微分可能なNASの大きなメモリ消費を軽減するために, 単純かつ効果的な進行学習方式を提案する。
論文 参考訳(メタデータ) (2020-06-18T08:23:02Z) - AlphaGAN: Fully Differentiable Architecture Search for Generative
Adversarial Networks [15.740179244963116]
GAN (Generative Adversarial Networks) はミニマックスゲーム問題として定式化され、ジェネレータは差別者に対する対戦学習によって実際のデータ分布にアプローチしようとする。
本研究は,ネットワークアーキテクチャの観点からのモデル学習を促進することを目的として,GANに自動アーキテクチャ探索の最近の進歩を取り入れた。
我々は,αGANと呼ばれる,生成的敵ネットワークのための,完全に差別化可能な検索フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-16T13:27:30Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。