論文の概要: Towards Self-supervised and Weight-preserving Neural Architecture Search
- arxiv url: http://arxiv.org/abs/2206.04125v1
- Date: Wed, 8 Jun 2022 18:48:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-10 14:05:35.267472
- Title: Towards Self-supervised and Weight-preserving Neural Architecture Search
- Title(参考訳): 自己監督型および重み保存型ニューラルアーキテクチャ探索に向けて
- Authors: Zhuowei Li, Yibo Gao, Zhenzhou Zha, Zhiqiang HU, Qing Xia, Shaoting
Zhang, Dimitris N. Metaxas
- Abstract要約: 本研究では,現在のNASフレームワークの拡張として,自己教師付き重み保存型ニューラルネットワーク探索(SSWP-NAS)を提案する。
CIFAR-10, CIFAR-100, ImageNetデータセットにおいて, 提案したフレームワークによって探索されたアーキテクチャが, 最先端の精度を実現することを示す。
- 参考スコア(独自算出の注目度): 38.497608743382145
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural architecture search (NAS) algorithms save tremendous labor from human
experts. Recent advancements further reduce the computational overhead to an
affordable level. However, it is still cumbersome to deploy the NAS techniques
in real-world applications due to the fussy procedures and the supervised
learning paradigm. In this work, we propose the self-supervised and
weight-preserving neural architecture search (SSWP-NAS) as an extension of the
current NAS framework by allowing the self-supervision and retaining the
concomitant weights discovered during the search stage. As such, we simplify
the workflow of NAS to a one-stage and proxy-free procedure. Experiments show
that the architectures searched by the proposed framework achieve
state-of-the-art accuracy on CIFAR-10, CIFAR-100, and ImageNet datasets without
using manual labels. Moreover, we show that employing the concomitant weights
as initialization consistently outperforms the random initialization and the
two-stage weight pre-training method by a clear margin under semi-supervised
learning scenarios. Codes are publicly available at
https://github.com/LzVv123456/SSWP-NAS.
- Abstract(参考訳): neural architecture search (nas)アルゴリズムは、人間の専門家による膨大な労力を節約する。
最近の進歩により、計算のオーバーヘッドは手頃なレベルにまで削減された。
しかし、ファジィな手続きと教師あり学習パラダイムのため、NASテクニックを現実世界のアプリケーションに展開することは依然として困難である。
本研究では,現在のNASフレームワークの拡張として,自己監督・保存型ニューラルネットワーク探索(SSWP-NAS)を提案する。
したがって、NASのワークフローをワンステージかつプロキシフリーな手順に単純化する。
実験の結果,CIFAR-10,CIFAR-100,ImageNetのデータセットに対して,手動ラベルを使わずに最先端の精度が得られることがわかった。
さらに,共役重みを初期化として用いることは,半教師付き学習シナリオにおいて,ランダム初期化と二段階重み事前学習法を連続的に有意なマージンで上回ることを示した。
コードはhttps://github.com/LzVv123456/SSWP-NASで公開されている。
関連論文リスト
- DNA Family: Boosting Weight-Sharing NAS with Block-Wise Supervisions [121.05720140641189]
蒸留型ニューラルアーキテクチャ(DNA)技術を用いたモデル群を開発した。
提案するDNAモデルでは,アルゴリズムを用いてサブサーチ空間にのみアクセス可能な従来の手法とは対照的に,すべてのアーキテクチャ候補を評価できる。
当社のモデルでは,モバイルコンボリューションネットワークと小型ビジョントランスフォーマーにおいて,ImageNet上で78.9%,83.6%の最先端トップ1精度を実現している。
論文 参考訳(メタデータ) (2024-03-02T22:16:47Z) - SiGeo: Sub-One-Shot NAS via Information Theory and Geometry of Loss
Landscape [14.550053893504764]
ゼロショットとワンショットNASの間のブリッジとして機能する"サブワンショット"パラダイムを導入する。
サブワンショットNASでは、スーパーネットはトレーニングデータの小さなサブセットのみを使用してトレーニングされる。
提案するプロキシは,スーパーネットウォームアップとプロキシの有効性を結びつける,新しい理論フレームワーク上に構築されたプロキシである。
論文 参考訳(メタデータ) (2023-11-22T05:25:24Z) - DCP-NAS: Discrepant Child-Parent Neural Architecture Search for 1-bit
CNNs [53.82853297675979]
バイナリ重みとアクティベーションを備えた1ビット畳み込みニューラルネットワーク(CNN)は、リソース制限された組み込みデバイスの可能性を示している。
自然なアプローチの1つは、NASの計算とメモリコストを削減するために1ビットCNNを使用することである。
本稿では,1ビットCNNを効率的に探索するためにDCP-NAS(Disrepant Child-Parent Neural Architecture Search)を提案する。
論文 参考訳(メタデータ) (2023-06-27T11:28:29Z) - NASiam: Efficient Representation Learning using Neural Architecture
Search for Siamese Networks [76.8112416450677]
シームズネットワークは、自己教師付き視覚表現学習(SSL)を実現するための最も傾向のある方法の1つである。
NASiamは、初めて微分可能なNASを使用して、多層パーセプトロンプロジェクタと予測器(エンコーダ/予測器ペア)を改善する新しいアプローチである。
NASiamは、小規模(CIFAR-10/CIFAR-100)と大規模(画像Net)画像分類データセットの両方で競合性能を達成し、わずか数GPU時間しかかからない。
論文 参考訳(メタデータ) (2023-01-31T19:48:37Z) - Generalization Properties of NAS under Activation and Skip Connection
Search [66.8386847112332]
ニューラルネットワーク探索(NAS)の一般化特性を統一的枠組みの下で検討する。
我々は, 有限幅政権下でのニューラル・タンジェント・カーネル(NTK)の最小固有値の下(および上)境界を導出する。
トレーニングなしでもNASがトップパフォーマンスアーキテクチャを選択する方法を示す。
論文 参考訳(メタデータ) (2022-09-15T12:11:41Z) - PRE-NAS: Predictor-assisted Evolutionary Neural Architecture Search [34.06028035262884]
我々は、新しい進化型NAS戦略、Predictor-assisted E-NAS(PRE-NAS)を提案する。
Pre-NASは新しい進化的探索戦略を活用し、世代ごとに高忠実度重みの継承を統合する。
NAS-Bench-201とDARTSの探索実験により、Pre-NASは最先端のNAS法より優れていることが示された。
論文 参考訳(メタデータ) (2022-04-27T06:40:39Z) - AceNAS: Learning to Rank Ace Neural Architectures with Weak Supervision
of Weight Sharing [6.171090327531059]
空間から最高のアーキテクチャを選択するためのLearning to Rank手法を紹介します。
また,スーパーネットから得られた弱いラベルのアーキテクチャ表現を事前学習することで,重み共有から弱い管理を活用することを提案する。
NASベンチマークと大規模検索空間を用いた実験により,提案手法はSOTAよりも検索コストが大幅に削減された。
論文 参考訳(メタデータ) (2021-08-06T08:31:42Z) - Pretraining Neural Architecture Search Controllers with Locality-based
Self-Supervised Learning [0.0]
コントローラベースのNASに適用可能なプリトレーニング方式を提案する。
本手法は局所性に基づく自己教師付き分類タスクであり,ネットワークアーキテクチャの構造的類似性を活用し,優れたアーキテクチャ表現を得る。
論文 参考訳(メタデータ) (2021-03-15T06:30:36Z) - CP-NAS: Child-Parent Neural Architecture Search for Binary Neural
Networks [27.867108193391633]
我々は1ビット畳み込みニューラルネットワーク(CNN)を提案し、ニューラルアーキテクチャサーチ(NAS)の計算とメモリコストを削減する。
実精度モデル (Parent) の監督下で二項化アーキテクチャ (Child) を探索するために, 識別可能なNASにCPモデルを導入した。
CIFAR-10では9,5.27%、ImageNetでは6,4.3%の精度でバイナライズされたウェイトとアクティベーションを持ち、前作よりも30%の高速検索を実現している。
論文 参考訳(メタデータ) (2020-04-30T19:09:55Z) - Angle-based Search Space Shrinking for Neural Architecture Search [78.49722661000442]
ニューラルネットワーク探索(NAS)のためのアングルベースサーチスペーススライキング(ABS)
提案手法は,未提案の候補を落として,検索空間を段階的に単純化する。
ABSは、有望なスランク検索空間を提供することで、既存のNASアプローチを劇的に強化することができる。
論文 参考訳(メタデータ) (2020-04-28T11:26:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。