論文の概要: Improving the sample-efficiency of neural architecture search with
reinforcement learning
- arxiv url: http://arxiv.org/abs/2110.06751v1
- Date: Wed, 13 Oct 2021 14:30:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-14 19:00:39.024338
- Title: Improving the sample-efficiency of neural architecture search with
reinforcement learning
- Title(参考訳): 強化学習によるニューラルネットワーク探索のサンプル効率の向上
- Authors: Attila Nagy, \'Abel Boros
- Abstract要約: この作業では、Automated Machine Learning(AutoML)の領域にコントリビュートしたいと思っています。
我々の焦点は、最も有望な研究方向の一つ、強化学習である。
児童ネットワークの検証精度は、コントローラを訓練するための報奨信号として機能する。
我々は、これをより現代的で複雑なアルゴリズムであるPPOに修正することを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Designing complex architectures has been an essential cogwheel in the
revolution deep learning has brought about in the past decade. When solving
difficult problems in a datadriven manner, a well-tried approach is to take an
architecture discovered by renowned deep learning scientists as a basis (e.g.
Inception) and try to apply it to a specific problem. This might be sufficient,
but as of now, achieving very high accuracy on a complex or yet unsolved task
requires the knowledge of highly-trained deep learning experts. In this work,
we would like to contribute to the area of Automated Machine Learning (AutoML),
specifically Neural Architecture Search (NAS), which intends to make deep
learning methods available for a wider range of society by designing neural
topologies automatically. Although several different approaches exist (e.g.
gradient-based or evolutionary algorithms), our focus is on one of the most
promising research directions, reinforcement learning. In this scenario, a
recurrent neural network (controller) is trained to create problem-specific
neural network architectures (child). The validation accuracies of the child
networks serve as a reward signal for training the controller with
reinforcement learning. The basis of our proposed work is Efficient Neural
Architecture Search (ENAS), where parameter sharing is applied among the child
networks. ENAS, like many other RL-based algorithms, emphasize the learning of
child networks as increasing their convergence result in a denser reward signal
for the controller, therefore significantly reducing training times. The
controller was originally trained with REINFORCE. In our research, we propose
to modify this to a more modern and complex algorithm, PPO, which has
demonstrated to be faster and more stable in other environments. Then, we
briefly discuss and evaluate our results.
- Abstract(参考訳): 複雑なアーキテクチャを設計することは、過去10年間に深層学習がもたらした革命に不可欠なコグホイールである。
データ駆動方式で難しい問題を解決する場合、よく検討されたアプローチは、有名なディープラーニング科学者が発見したアーキテクチャを基礎(例えばインセプション)として、特定の問題に適用しようとすることである。
これは十分かもしれませんが、現在、複雑な、あるいは未解決のタスクで非常に高い精度を達成するには、高度に訓練されたディープラーニング専門家の知識が必要です。
本研究では,ニューラルトポロジを自動設計することで,より広い範囲の社会で深層学習手法を利用可能にすることを目的とした,Automated Machine Learning(AutoML)分野,特にNeural Architecture Search(NAS)にコントリビュートしたい。
いくつかの異なるアプローチ(例えば勾配に基づくアルゴリズムや進化的アルゴリズム)が存在するが、我々の焦点は強化学習という最も有望な研究方向の1つである。
このシナリオでは、リカレントニューラルネットワーク(コントローラ)をトレーニングして、問題固有のニューラルネットワークアーキテクチャ(子)を作成する。
児童ネットワークの検証精度は、強化学習でコントローラを訓練するための報奨信号として機能する。
提案した研究の基盤は、子ネットワーク間でパラメータ共有が適用されるEfficient Neural Architecture Search (ENAS)である。
ENASは、他の多くのRLベースのアルゴリズムと同様に、子ネットワークの学習を強調する。
コントローラーはもともとREINFORCEで訓練された。
本研究では, より現代的で複雑なアルゴリズムであるPPOに修正することを提案する。
そして,その結果について簡単に議論し,評価する。
関連論文リスト
- An Approach for Efficient Neural Architecture Search Space Definition [0.0]
本稿では, 理解や操作が容易な新しいセルベース階層型検索空間を提案する。
提案手法の目的は,検索時間を最適化し,CNNアーキテクチャのほとんどの状態を扱うのに十分な一般性を得ることである。
論文 参考訳(メタデータ) (2023-10-25T08:07:29Z) - Neural Architecture Search for Dense Prediction Tasks in Computer Vision [74.9839082859151]
ディープラーニングは、ニューラルネットワークアーキテクチャエンジニアリングに対する需要の高まりにつながっている。
ニューラルネットワーク検索(NAS)は、手動ではなく、データ駆動方式でニューラルネットワークアーキテクチャを自動設計することを目的としている。
NASはコンピュータビジョンの幅広い問題に適用されている。
論文 参考訳(メタデータ) (2022-02-15T08:06:50Z) - Efficient Neural Architecture Search with Performance Prediction [0.0]
ニューラルアーキテクチャ検索を使用して、目前にあるタスクに最適なネットワークアーキテクチャを見つけます。
既存のNASアルゴリズムは、スクラッチから完全にトレーニングすることで、新しいアーキテクチャの適合性を評価する。
サンプルアーキテクチャの評価を高速化するために,エンドツーエンドのオフライン性能予測器を提案する。
論文 参考訳(メタデータ) (2021-08-04T05:44:16Z) - D2RL: Deep Dense Architectures in Reinforcement Learning [47.67475810050311]
コンピュータビジョンと生成モデルにおけるアーキテクチャ選択の成功からインスピレーションを得ます。
各種ロボット学習ベンチマーク環境における強化学習における深層ネットワークと高密度接続の利用について検討した。
論文 参考訳(メタデータ) (2020-10-19T01:27:07Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - NAS-Navigator: Visual Steering for Explainable One-Shot Deep Neural
Network Synthesis [53.106414896248246]
本稿では,分析者がドメイン知識を注入することで,解のサブグラフ空間を効果的に構築し,ネットワーク探索をガイドするフレームワークを提案する。
このテクニックを反復的に適用することで、アナリストは、与えられたアプリケーションに対して最高のパフォーマンスのニューラルネットワークアーキテクチャに収束することができる。
論文 参考訳(メタデータ) (2020-09-28T01:48:45Z) - Multi-fidelity Neural Architecture Search with Knowledge Distillation [69.09782590880367]
ニューラルアーキテクチャ探索のためのベイズ的多重忠実度法 MF-KD を提案する。
知識蒸留は損失関数に追加され、ネットワークが教師ネットワークを模倣することを強制する用語となる。
このような変化した損失関数を持ついくつかのエポックに対するトレーニングは、ロジスティックな損失を持ついくつかのエポックに対するトレーニングよりも、より優れたニューラルアーキテクチャの選択につながることを示す。
論文 参考訳(メタデータ) (2020-06-15T12:32:38Z) - Efficient Architecture Search for Continual Learning [36.998565674813285]
ニューラルネットワークによる継続的な学習は、一連のタスクをうまく学習することを目的としている。
1)悲惨な忘れる問題を克服し、(2)現在のネットワークを新しいタスクに適応させ、(3)モデルの複雑さを制御する、という3つの課題に直面している。
本稿では,CLEAS(Continuous Learning with Efficient Architecture Search)という新しい手法を提案する。
論文 参考訳(メタデータ) (2020-06-07T02:59:29Z) - AutoML-Zero: Evolving Machine Learning Algorithms From Scratch [76.83052807776276]
基本数学的操作をビルディングブロックとして使うだけで,完全な機械学習アルゴリズムを自動的に発見できることが示される。
汎用的な検索空間を通じて人間のバイアスを大幅に低減する新しいフレームワークを導入することでこれを実証する。
機械学習アルゴリズムをゼロから発見する上で、これらの予備的な成功は、この分野における有望な新しい方向性を示していると信じている。
論文 参考訳(メタデータ) (2020-03-06T19:00:04Z) - Neural Architecture Search For Fault Diagnosis [6.226564415963648]
ディープラーニングはビッグデータ処理に適しており、エンドツーエンドの故障診断システムを実現する強力な特徴抽出機能を備えている。
ニューラルアーキテクチャサーチ(NAS)は急速に発展しており、ディープラーニングの次の方向性の1つになりつつある。
本稿では,補強学習を用いたNAS法による断層診断手法を提案する。
論文 参考訳(メタデータ) (2020-02-19T04:03:51Z) - Neuroevolution of Neural Network Architectures Using CoDeepNEAT and
Keras [0.0]
機械学習プロジェクトに関わる作業の大部分は、与えられた問題を解決するのに最適なタイプのアルゴリズムを定義することである。
与えられた問題に対する最適なネットワークトポロジと設定を見つけることは、ドメインの知識とテストの努力を必要とする課題です。
論文 参考訳(メタデータ) (2020-02-11T19:03:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。