論文の概要: Neuroevolution of Recurrent Architectures on Control Tasks
- arxiv url: http://arxiv.org/abs/2304.12431v1
- Date: Mon, 3 Apr 2023 16:29:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-30 07:28:40.084325
- Title: Neuroevolution of Recurrent Architectures on Control Tasks
- Title(参考訳): 制御課題における繰り返しアーキテクチャの神経進化
- Authors: Maximilien Le Clei, Pierre Bellec
- Abstract要約: 並列に並列な進化的アルゴリズムを実装し、19のOpenAI Gym状態に基づく強化学習制御タスクで実験を行う。
動的エージェントは, パラメータの桁数を桁違いに減らしながら, 勾配に基づくエージェントの性能に適合するか, 上回っていることがわかった。
- 参考スコア(独自算出の注目度): 3.04585143845864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern artificial intelligence works typically train the parameters of
fixed-sized deep neural networks using gradient-based optimization techniques.
Simple evolutionary algorithms have recently been shown to also be capable of
optimizing deep neural network parameters, at times matching the performance of
gradient-based techniques, e.g. in reinforcement learning settings. In addition
to optimizing network parameters, many evolutionary computation techniques are
also capable of progressively constructing network architectures. However,
constructing network architectures from elementary evolution rules has not yet
been shown to scale to modern reinforcement learning benchmarks. In this paper
we therefore propose a new approach in which the architectures of recurrent
neural networks dynamically evolve according to a small set of mutation rules.
We implement a massively parallel evolutionary algorithm and run experiments on
all 19 OpenAI Gym state-based reinforcement learning control tasks. We find
that in most cases, dynamic agents match or exceed the performance of
gradient-based agents while utilizing orders of magnitude fewer parameters. We
believe our work to open avenues for real-life applications where network
compactness and autonomous design are of critical importance. We provide our
source code, final model checkpoints and full results at
github.com/MaximilienLC/nra.
- Abstract(参考訳): 現代の人工知能の研究は通常、勾配に基づく最適化技術を用いて固定サイズのディープニューラルネットワークのパラメータを訓練する。
単純な進化アルゴリズムは、強化学習の設定など、勾配に基づく技術のパフォーマンスにマッチする時に、ディープニューラルネットワークパラメータを最適化する能力も示されている。
ネットワークパラメータの最適化に加えて、多くの進化的計算技術もネットワークアーキテクチャを段階的に構築することができる。
しかし、基本的な進化規則からネットワークアーキテクチャを構築することは、現代の強化学習ベンチマークにスケールすることがまだ示されていない。
そこで本研究では, 再帰型ニューラルネットワークのアーキテクチャを, 少数の突然変異規則に従って動的に進化させる手法を提案する。
我々は並列な進化的アルゴリズムを実装し、19のOpenAI Gym状態に基づく強化学習制御タスクで実験を行う。
ほとんどの場合、動的エージェントは、パラメータの桁数を桁違いに減らしながら、勾配に基づくエージェントのパフォーマンスを一致または超過する。
我々は、ネットワークのコンパクトさと自律設計が重要である実生活のアプリケーションへの道を開く努力を信じている。
私たちはgithub.com/MaximilienLC/nraでソースコードと最終モデルチェックポイントと完全な結果を提供しています。
関連論文リスト
- Growing Tiny Networks: Spotting Expressivity Bottlenecks and Fixing Them Optimally [2.645067871482715]
機械学習タスクでは、ある機能空間内で最適な関数を探索する。
この方法で、トレーニング中の機能の進化を、選択したアーキテクチャで表現可能な領域内に配置させます。
表現力のボトルネックによる望ましいアーキテクチャ変更に関する情報は, 後処理の % から抽出可能であることを示す。
論文 参考訳(メタデータ) (2024-05-30T08:23:56Z) - Principled Architecture-aware Scaling of Hyperparameters [69.98414153320894]
高品質のディープニューラルネットワークをトレーニングするには、非自明で高価なプロセスである適切なハイパーパラメータを選択する必要がある。
本研究では,ネットワークアーキテクチャにおける初期化と最大学習率の依存性を正確に評価する。
ネットワークランキングは、ベンチマークのトレーニングネットワークにより容易に変更可能であることを実証する。
論文 参考訳(メタデータ) (2024-02-27T11:52:49Z) - Multi-agent Reinforcement Learning with Graph Q-Networks for Antenna
Tuning [60.94661435297309]
モバイルネットワークの規模は、手作業による介入や手作業による戦略を使ってアンテナパラメータの最適化を困難にしている。
本研究では,モバイルネットワーク構成をグローバルに最適化するマルチエージェント強化学習アルゴリズムを提案する。
シミュレーション環境におけるアンテナ傾き調整問題とジョイント傾き・電力制御問題に対するアルゴリズムの性能を実証的に示す。
論文 参考訳(メタデータ) (2023-01-20T17:06:34Z) - Re-visiting Reservoir Computing architectures optimized by Evolutionary
Algorithms [0.0]
進化的アルゴリズム(EA)はニューラルネットワーク(NN)アーキテクチャの改善に応用されている。
我々は、Reservoir Computing (RC) という、リカレントNNの特定の領域におけるEAの応用に関する体系的な簡単な調査を行う。
論文 参考訳(メタデータ) (2022-11-11T14:50:54Z) - Dynamics-aware Adversarial Attack of Adaptive Neural Networks [75.50214601278455]
適応型ニューラルネットワークの動的対向攻撃問題について検討する。
本稿では,LGM(Leaded Gradient Method)を提案する。
我々のLGMは、動的無意識攻撃法と比較して、優れた敵攻撃性能を達成している。
論文 参考訳(メタデータ) (2022-10-15T01:32:08Z) - Firefly Neural Architecture Descent: a General Approach for Growing
Neural Networks [50.684661759340145]
firefly neural architecture descentは、ニューラルネットワークを漸進的かつ動的に成長させるための一般的なフレームワークである。
ホタルの降下は、より広く、より深くネットワークを柔軟に成長させ、正確だがリソース効率のよいニューラルアーキテクチャを学習するために応用できることを示す。
特に、サイズは小さいが、最先端の手法で学習したネットワークよりも平均精度が高いネットワークを学習する。
論文 参考訳(メタデータ) (2021-02-17T04:47:18Z) - Optimizing Memory Placement using Evolutionary Graph Reinforcement
Learning [56.83172249278467]
大規模検索空間を対象とした進化グラフ強化学習(EGRL)を提案する。
我々は、推論のために、Intel NNP-Iチップ上で、我々のアプローチを直接訓練し、検証する。
また,NNP-Iコンパイラと比較して28~78%の高速化を実現している。
論文 参考訳(メタデータ) (2020-07-14T18:50:12Z) - Sampled Training and Node Inheritance for Fast Evolutionary Neural
Architecture Search [22.483917379706725]
進化的ニューラルアーキテクチャサーチ(ENAS)は、進化的アルゴリズムの魅力的なグローバル最適化能力のために注目を集めている。
本稿では,学習データの各ミニバッチに対して,両親がランダムにサンプルを採取し,訓練する,有向非循環グラフに基づく高速ENASのための新しいフレームワークを提案する。
提案アルゴリズムは,26の最先端のピアアルゴリズムと比較して,広く使用されているデータセット上で評価する。
論文 参考訳(メタデータ) (2020-03-07T12:33:01Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。