論文の概要: CATCH: Context-based Meta Reinforcement Learning for Transferrable
Architecture Search
- arxiv url: http://arxiv.org/abs/2007.09380v3
- Date: Wed, 22 Jul 2020 05:39:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 05:16:39.149930
- Title: CATCH: Context-based Meta Reinforcement Learning for Transferrable
Architecture Search
- Title(参考訳): CATCH:トランスファーブルアーキテクチャ検索のためのコンテキストベースメタ強化学習
- Authors: Xin Chen, Yawen Duan, Zewei Chen, Hang Xu, Zihao Chen, Xiaodan Liang,
Tong Zhang, Zhenguo Li
- Abstract要約: CATCHは、転送可能なarChitecture searcHのための、Context-bAsed meTa強化学習アルゴリズムである。
メタラーニングとRLの組み合わせにより、CATCHは検索空間に依存しないまま、新しいタスクに効率的に適応できる。
また、ImageNet、COCO、Cityscapesの競合ネットワークとしてクロスドメインアーキテクチャサーチを扱うこともできる。
- 参考スコア(独自算出の注目度): 102.67142711824748
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Architecture Search (NAS) achieved many breakthroughs in recent years.
In spite of its remarkable progress, many algorithms are restricted to
particular search spaces. They also lack efficient mechanisms to reuse
knowledge when confronting multiple tasks. These challenges preclude their
applicability, and motivate our proposal of CATCH, a novel Context-bAsed meTa
reinforcement learning (RL) algorithm for transferrable arChitecture searcH.
The combination of meta-learning and RL allows CATCH to efficiently adapt to
new tasks while being agnostic to search spaces. CATCH utilizes a probabilistic
encoder to encode task properties into latent context variables, which then
guide CATCH's controller to quickly "catch" top-performing networks. The
contexts also assist a network evaluator in filtering inferior candidates and
speed up learning. Extensive experiments demonstrate CATCH's universality and
search efficiency over many other widely-recognized algorithms. It is also
capable of handling cross-domain architecture search as competitive networks on
ImageNet, COCO, and Cityscapes are identified. This is the first work to our
knowledge that proposes an efficient transferrable NAS solution while
maintaining robustness across various settings.
- Abstract(参考訳): neural architecture search (nas)は近年多くのブレークスルーを達成した。
その顕著な進歩にもかかわらず、多くのアルゴリズムは特定の検索空間に限定されている。
また、複数のタスクに直面するときに知識を再利用する効率的なメカニズムを欠いている。
これらの課題は適用性を阻害し, 転用可能なarChitecture searcHのための新しいContext-bAsed meTa reinforcement learning (RL)アルゴリズムであるCATCHを提案する。
メタラーニングとRLの組み合わせにより、CATCHは検索空間に依存しないまま、新しいタスクに効率的に適応できる。
CATCHは確率エンコーダを使用してタスクプロパティを潜在コンテキスト変数にエンコードし、CATCHのコントローラを高速にトップパフォーマンスネットワークに"キャッチ"する。
コンテキストはまた、劣る候補をフィルタリングし、学習をスピードアップするネットワーク評価者を支援する。
広範な実験は、CATCHの普遍性と他の広く認識されているアルゴリズムに対する探索効率を実証している。
また、imagenet、coco、cityscapesの競合ネットワークとして、クロスドメインアーキテクチャ検索を処理することもできる。
さまざまな設定で堅牢性を維持しながら、効率的な転送可能なnasソリューションを提案する、私たちの知識に対する最初の作業です。
関連論文リスト
- Masked Autoencoders Are Robust Neural Architecture Search Learners [14.965550562292476]
本研究では,Masked Autoencoders (MAE) に基づく新しいNASフレームワークを提案する。
教師あり学習対象を画像再構成タスクに置き換えることで,ネットワークアーキテクチャの堅牢な発見を可能にする。
論文 参考訳(メタデータ) (2023-11-20T13:45:21Z) - OFA$^2$: A Multi-Objective Perspective for the Once-for-All Neural
Architecture Search [79.36688444492405]
once-for-All(OFA)は、異なるリソース制約を持つデバイスのための効率的なアーキテクチャを探索する問題に対処するために設計された、ニューラルネットワーク検索(NAS)フレームワークである。
我々は,探索段階を多目的最適化問題として明示的に考えることにより,効率の追求を一歩進めることを目指している。
論文 参考訳(メタデータ) (2023-03-23T21:30:29Z) - Efficient Architecture Search for Diverse Tasks [29.83517145790238]
多様な問題を効率的に解くために,ニューラルネットワーク探索(NAS)について検討する。
本稿では,畳み込みのフーリエ対角化を用いた混合動作を計算する,微分可能なNASアルゴリズムであるDASHを紹介する。
DASH-Bench-360は多様な領域におけるNASベンチマークのために設計された10のタスクスイートである。
論文 参考訳(メタデータ) (2022-04-15T17:21:27Z) - $\beta$-DARTS: Beta-Decay Regularization for Differentiable Architecture
Search [85.84110365657455]
本研究では,DARTSに基づくNAS探索過程を正規化するために,ベータデカイと呼ばれるシンプルだが効率的な正規化手法を提案する。
NAS-Bench-201の実験結果から,提案手法は探索過程の安定化に有効であり,探索されたネットワークを異なるデータセット間で転送しやすくする。
論文 参考訳(メタデータ) (2022-03-03T11:47:14Z) - Understanding and Accelerating Neural Architecture Search with
Training-Free and Theory-Grounded Metrics [117.4281417428145]
この作業は、ニューラルネットワークサーチ(NAS)のための原則的で統一的なトレーニングフリーフレームワークの設計を目標としている。
NASは、高性能ニューラルネットワークの発見を自動化するために爆発的に研究されてきたが、資源消費に悩まされ、しばしば訓練や近似によって探索バイアスを引き起こす。
我々は,検索ネットワークの「TEG」特性を解消し,NASを理解し,加速するための統一的な枠組みを提案する。
論文 参考訳(メタデータ) (2021-08-26T17:52:07Z) - MTL-NAS: Task-Agnostic Neural Architecture Search towards
General-Purpose Multi-Task Learning [71.90902837008278]
汎用マルチタスク学習(GP-MTL)にニューラルアーキテクチャサーチ(NAS)を導入することを提案する。
異なるタスクの組み合わせに対応するため、GP-MTLネットワークを単一タスクのバックボーンに分割する。
また,探索されたアーキテクチャ間の性能ギャップを埋める単一ショット勾配に基づく探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-03-31T09:49:14Z) - Scalable NAS with Factorizable Architectural Parameters [102.51428615447703]
Neural Architecture Search (NAS)は、機械学習とコンピュータビジョンにおける新たなトピックである。
本稿では,多数の候補演算子をより小さな部分空間に分解することで,スケーラブルなアルゴリズムを提案する。
検索コストが少なめに増加し、再トレーニングに余分なコストがかからないため、これまで調査されなかった興味深いアーキテクチャが見つかる。
論文 参考訳(メタデータ) (2019-12-31T10:26:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。