論文の概要: Adaptability of Improved NEAT in Variable Environments
- arxiv url: http://arxiv.org/abs/2201.07977v2
- Date: Mon, 3 Jul 2023 00:25:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-04 16:28:23.316527
- Title: Adaptability of Improved NEAT in Variable Environments
- Title(参考訳): 可変環境における改良NEATの適応性
- Authors: Destiny Bailey
- Abstract要約: 神経進化(NeuroEvolution of Augmenting Topologies、NEAT)は、新しい遺伝的アルゴリズム(GA)である。
本稿では, NEATの改良版を可変環境に実装することにより, この課題について検討する。
すべての組み合わせで改善されているのは、リカレント接続、自動機能選択、人口増加である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A large challenge in Artificial Intelligence (AI) is training control agents
that can properly adapt to variable environments. Environments in which the
conditions change can cause issues for agents trying to operate in them.
Building algorithms that can train agents to operate in these environments and
properly deal with the changing conditions is therefore important.
NeuroEvolution of Augmenting Topologies (NEAT) was a novel Genetic Algorithm
(GA) when it was created, but has fallen aside with newer GAs outperforming it.
This paper furthers the research on this subject by implementing various
versions of improved NEAT in a variable environment to determine if NEAT can
perform well in these environments. The improvements included, in every
combination, are: recurrent connections, automatic feature selection, and
increasing population size. The recurrent connections improvement performed
extremely well. The automatic feature selection improvement was found to be
detrimental to performance, and the increasing population size improvement
lowered performance a small amount, but decreased computation requirements
noticeably.
- Abstract(参考訳): 人工知能(AI)の大きな課題は、可変環境に適切に適応できる制御エージェントの訓練である。
条件が変わる環境は、エージェントが操作しようとする問題を引き起こす可能性がある。
これらの環境でエージェントを訓練し、変化する状況に適切に対処できるアルゴリズムを構築することが重要である。
神経進化(NeuroEvolution of Augmenting Topologies、NEAT)は、新しい遺伝的アルゴリズム(GA)である。
本稿では,これらの環境においてNEATが有効であるかどうかを判断するために,NEATの改良版を可変環境に実装することで,本研究をさらに進める。
すべての組み合わせで改善されているのは、リカレント接続、自動機能選択、人口増加である。
繰り返し接続の改善は極めて良好に行われた。
自動特徴選択の改善は性能に悪影響を及ぼすことが判明し,人口規模の改善は性能を低下させたが,計算要件は著しく低下した。
関連論文リスト
- MARS: Unleashing the Power of Variance Reduction for Training Large Models [56.47014540413659]
Adam、Adam、およびそれらの変種のような大規模な勾配アルゴリズムは、この種のトレーニングの開発の中心となっている。
本稿では,事前条件付き勾配最適化手法と,スケールドモーメント手法による分散低減を両立させる枠組みを提案する。
論文 参考訳(メタデータ) (2024-11-15T18:57:39Z) - Cooperative coevolutionary Modified Differential Evolution with
Distance-based Selection for Large-Scale Optimization Problems in noisy
environments through an automatic Random Grouping [3.274290296343038]
本稿では,雑音環境における大規模最適化問題を解決するために,自動ランダムグループ化(aRG)を提案する。
また、ノイズの多い環境での能力を高めるために、MDE-DS(Modified Evolution with Distance-based Selection)を導入する。
提案手法は,ノイズの多い環境下でLSOPを解くための幅広い可能性があり,高次元問題への拡張が容易である。
論文 参考訳(メタデータ) (2022-09-02T01:37:17Z) - Adaptive Self-supervision Algorithms for Physics-informed Neural
Networks [59.822151945132525]
物理情報ニューラルネットワーク(PINN)は、損失関数のソフト制約として問題領域からの物理的知識を取り入れている。
これらのモデルの訓練性に及ぼす座標点の位置の影響について検討した。
モデルがより高い誤りを犯している領域に対して、より多くのコロケーションポイントを段階的に割り当てる適応的コロケーション方式を提案する。
論文 参考訳(メタデータ) (2022-07-08T18:17:06Z) - Deep Surrogate Assisted Generation of Environments [7.217405582720078]
品質多様性(QD)最適化は環境生成アルゴリズムの有効成分であることが証明されている。
本稿では,サンプル効率のよいQD環境生成アルゴリズムであるDeep Surrogate Assisted Generation of Environments (DSAGE)を提案する。
2つのベンチマークドメインの結果、DSAGEは既存のQD環境生成アルゴリズムを大幅に上回っている。
論文 参考訳(メタデータ) (2022-06-09T00:14:03Z) - Effective Mutation Rate Adaptation through Group Elite Selection [50.88204196504888]
本稿では,GESMR(Group Elite Selection of Mutation Rates)アルゴリズムを提案する。
GESMRは解の集団とMRの集団を共進化させ、各MRは解群に割り当てられる。
同じ数の関数評価とオーバーヘッドのほとんどないGESMRは、以前のアプローチよりも早く、より良いソリューションに収束する。
論文 参考訳(メタデータ) (2022-04-11T01:08:26Z) - Task-Agnostic Morphology Evolution [94.97384298872286]
モルフォロジーと振る舞いを共同適用する現在のアプローチでは、特定のタスクの報酬をモルフォロジー最適化のシグナルとして使用します。
これはしばしば高価なポリシー最適化を必要とし、一般化するために構築されていないタスクに依存した形態をもたらす。
我々は,これらの問題を緩和するための新しいアプローチであるタスク非依存形態進化(tame)を提案する。
論文 参考訳(メタデータ) (2021-02-25T18:59:21Z) - Automated Curriculum Learning for Embodied Agents: A Neuroevolutionary
Approach [0.0]
進化的アルゴリズムを,進化的エージェントが評価される環境条件を自動的に選択するカリキュラム学習プロセスで拡張する方法を実証する。
その結果, 提案手法が従来のアルゴリズムより優れ, 変動に頑健な解を生成することを示した。
論文 参考訳(メタデータ) (2021-02-17T16:19:17Z) - Instance Weighted Incremental Evolution Strategies for Reinforcement
Learning in Dynamic Environments [11.076005074172516]
本研究では,動的環境における進化戦略(ES)の体系的漸進学習手法を提案する。
目標は、環境が変わるたびに、学習済みのポリシーを新しいポリシーに漸進的に調整することだ。
本稿では、動的環境への高速な学習適応を実現するため、RLドメインのためのスケーラブルなESアルゴリズムのファミリーを紹介する。
論文 参考訳(メタデータ) (2020-10-09T14:31:44Z) - Maximum Mutation Reinforcement Learning for Scalable Control [25.935468948833073]
強化学習(Reinforcement Learning, RL)は、大規模状態空間に対するデータ効率と最適制御を、スケーラブルな性能で実証している。
本稿では,スケーラブルなRLアルゴリズムであるEvolution-based Soft Actor-Critic (ESAC)を提案する。
論文 参考訳(メタデータ) (2020-07-24T16:29:19Z) - EOS: a Parallel, Self-Adaptive, Multi-Population Evolutionary Algorithm
for Constrained Global Optimization [68.8204255655161]
EOSは実数値変数の制約付きおよび制約なし問題に対する大域的最適化アルゴリズムである。
これはよく知られた微分進化(DE)アルゴリズムに多くの改良を加えている。
その結果、EOSisは、最先端の単一人口自己適応Dアルゴリズムと比較して高い性能を達成可能であることが証明された。
論文 参考訳(メタデータ) (2020-07-09T10:19:22Z) - Top-k Training of GANs: Improving GAN Performance by Throwing Away Bad
Samples [67.11669996924671]
GAN(Generative Adversarial Network)トレーニングアルゴリズムに,簡単な修正(一行のコード)を導入する。
ジェネレータパラメータを更新するとき、批判者が最も現実的に評価するバッチの要素から勾配のコントリビューションをゼロにします。
このトップk更新の手順が一般的に適用可能な改善であることを示す。
論文 参考訳(メタデータ) (2020-02-14T19:27:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。