論文の概要: A Survey on Neural Architecture Search Based on Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2409.18163v2
- Date: Mon, 30 Sep 2024 06:51:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-01 22:06:29.757968
- Title: A Survey on Neural Architecture Search Based on Reinforcement Learning
- Title(参考訳): 強化学習に基づくニューラルネットワーク探索に関する研究
- Authors: Wenzhu Shao,
- Abstract要約: 本稿では,ニューラルアーキテクチャサーチの全体開発を紹介する。
次に、ニューラルネットワーク検索に関する総合的かつ理解可能な調査を提供することに重点を置いています。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The automation of feature extraction of machine learning has been successfully realized by the explosive development of deep learning. However, the structures and hyperparameters of deep neural network architectures also make huge difference on the performance in different tasks. The process of exploring optimal structures and hyperparameters often involves a lot of tedious human intervene. As a result, a legitimate question is to ask for the automation of searching for optimal network structures and hyperparameters. The work of automation of exploring optimal hyperparameters is done by Hyperparameter Optimization. Neural Architecture Search is aimed to automatically find the best network structure given specific tasks. In this paper, we firstly introduced the overall development of Neural Architecture Search and then focus mainly on providing an overall and understandable survey about Neural Architecture Search works that are relevant with reinforcement learning, including improvements and variants based on the hope of satisfying more complex structures and resource-insufficient environment.
- Abstract(参考訳): 機械学習の特徴抽出の自動化は、深層学習の爆発的発展によって実現されている。
しかし、ディープニューラルネットワークアーキテクチャの構造とハイパーパラメータは、異なるタスクのパフォーマンスに大きな違いをもたらす。
最適な構造とハイパーパラメータを探索するプロセスは、しばしば退屈な人間の介入を伴います。
その結果、最適なネットワーク構造とハイパーパラメータを探索する自動化を求めることが妥当な問題である。
最適パラメータを探索する自動化の作業は、ハイパーパラメータ最適化によって行われる。
Neural Architecture Searchは、特定のタスクに対して最適なネットワーク構造を自動的に見つけることを目的としている。
本稿では,まず,ニューラルネットワーク検索の総合開発について紹介し,さらに,より複雑な構造や資源不足の環境を満たすことを願って,強化学習に関連するニューラルネットワーク探索について,総合的かつ理解可能な調査を行うことに焦点をあてる。
関連論文リスト
- Principled Architecture-aware Scaling of Hyperparameters [69.98414153320894]
高品質のディープニューラルネットワークをトレーニングするには、非自明で高価なプロセスである適切なハイパーパラメータを選択する必要がある。
本研究では,ネットワークアーキテクチャにおける初期化と最大学習率の依存性を正確に評価する。
ネットワークランキングは、ベンチマークのトレーニングネットワークにより容易に変更可能であることを実証する。
論文 参考訳(メタデータ) (2024-02-27T11:52:49Z) - An Approach for Efficient Neural Architecture Search Space Definition [0.0]
本稿では, 理解や操作が容易な新しいセルベース階層型検索空間を提案する。
提案手法の目的は,検索時間を最適化し,CNNアーキテクチャのほとんどの状態を扱うのに十分な一般性を得ることである。
論文 参考訳(メタデータ) (2023-10-25T08:07:29Z) - SuperNet in Neural Architecture Search: A Taxonomic Survey [14.037182039950505]
このサーベイは、ウェイトシェアリングを使用して、すべてのアーキテクチャをサブモデルとして組み立てるニューラルネットワークを構築するスーパーネット最適化に焦点を当てている。
データ側最適化、低ランク相関緩和、多数のデプロイメントシナリオに対するトランスファー可能なNASなどです。
論文 参考訳(メタデータ) (2022-04-08T08:29:52Z) - Neural Architecture Search for Speech Emotion Recognition [72.1966266171951]
本稿では,SERモデルの自動構成にニューラルアーキテクチャサーチ(NAS)技術を適用することを提案する。
NASはモデルパラメータサイズを維持しながらSER性能(54.89%から56.28%)を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-03-31T10:16:10Z) - Improving the sample-efficiency of neural architecture search with
reinforcement learning [0.0]
この作業では、Automated Machine Learning(AutoML)の領域にコントリビュートしたいと思っています。
我々の焦点は、最も有望な研究方向の一つ、強化学習である。
児童ネットワークの検証精度は、コントローラを訓練するための報奨信号として機能する。
我々は、これをより現代的で複雑なアルゴリズムであるPPOに修正することを提案する。
論文 参考訳(メタデータ) (2021-10-13T14:30:09Z) - On the Exploitation of Neuroevolutionary Information: Analyzing the Past
for a More Efficient Future [60.99717891994599]
本稿では,神経進化過程から情報を抽出し,メタモデルを構築するアプローチを提案する。
本稿では, 異なる特徴を有する生成的対向ネットワークの神経進化的探索における最良の構造について検討する。
論文 参考訳(メタデータ) (2021-05-26T20:55:29Z) - Neural Architecture Search with an Efficient Multiobjective Evolutionary
Framework [0.0]
本稿では,効率的な多目的ニューラルアーキテクチャ探索フレームワークであるEMONASを提案する。
EMONASは、アーキテクチャのマクロ構造とマイクロ構造の両方を考慮した検索空間で構成されている。
MICCAI ACDCの課題から3次元心筋セグメンテーションの課題について検討した。
論文 参考訳(メタデータ) (2020-11-09T14:41:10Z) - NAS-Navigator: Visual Steering for Explainable One-Shot Deep Neural
Network Synthesis [53.106414896248246]
本稿では,分析者がドメイン知識を注入することで,解のサブグラフ空間を効果的に構築し,ネットワーク探索をガイドするフレームワークを提案する。
このテクニックを反復的に適用することで、アナリストは、与えられたアプリケーションに対して最高のパフォーマンスのニューラルネットワークアーキテクチャに収束することができる。
論文 参考訳(メタデータ) (2020-09-28T01:48:45Z) - Automated Search for Resource-Efficient Branched Multi-Task Networks [81.48051635183916]
我々は,多タスクニューラルネットワークにおける分岐構造を自動的に定義する,微分可能なニューラルネットワーク探索に根ざした原理的アプローチを提案する。
本手法は,限られた資源予算内で高い性能の分岐構造を見いだすことができる。
論文 参考訳(メタデータ) (2020-08-24T09:49:19Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。