論文の概要: Lineage Evolution Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2010.14616v1
- Date: Sat, 26 Sep 2020 11:58:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 08:19:52.004988
- Title: Lineage Evolution Reinforcement Learning
- Title(参考訳): 線形進化強化学習
- Authors: Zeyu Zhang, Guisheng Yin
- Abstract要約: 線形進化強化学習は一般エージェント集団学習システムに対応する派生アルゴリズムである。
実験により,アタリ2600のゲームにおいて,系統進化の考え方により,元の強化学習アルゴリズムの性能が向上することが確認された。
- 参考スコア(独自算出の注目度): 15.469857142001482
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a general agent population learning system, and on this basis, we
propose lineage evolution reinforcement learning algorithm. Lineage evolution
reinforcement learning is a kind of derivative algorithm which accords with the
general agent population learning system. We take the agents in DQN and its
related variants as the basic agents in the population, and add the selection,
mutation and crossover modules in the genetic algorithm to the reinforcement
learning algorithm. In the process of agent evolution, we refer to the
characteristics of natural genetic behavior, add lineage factor to ensure the
retention of potential performance of agent, and comprehensively consider the
current performance and lineage value when evaluating the performance of agent.
Without changing the parameters of the original reinforcement learning
algorithm, lineage evolution reinforcement learning can optimize different
reinforcement learning algorithms. Our experiments show that the idea of
evolution with lineage improves the performance of original reinforcement
learning algorithm in some games in Atari 2600.
- Abstract(参考訳): 本稿では,一般的なエージェント集団学習システムを提案し,その基盤として系統進化強化学習アルゴリズムを提案する。
線形進化強化学習は、一般エージェント集団学習システムに対応する派生アルゴリズムの一種である。
我々は、DQNとその関連変異体におけるエージェントを、集団の基本的なエージェントとみなし、遺伝的アルゴリズムにおける選択、突然変異、クロスオーバーモジュールを強化学習アルゴリズムに追加する。
エージェント進化の過程では、自然遺伝行動の特徴を参照し、エージェントの潜在的なパフォーマンスを維持するために系統因子を追加し、エージェントの性能を評価する際の現在のパフォーマンスと系統価値を包括的に検討する。
元の強化学習アルゴリズムのパラメータを変更することなく、系統進化強化学習は異なる強化学習アルゴリズムを最適化することができる。
実験により,アタリ2600のゲームにおいて,系統進化の考え方が元の強化学習アルゴリズムの性能を向上させることが示された。
関連論文リスト
- From Novice to Expert: LLM Agent Policy Optimization via Step-wise Reinforcement Learning [62.54484062185869]
本稿では,エージェントの強化学習プロセスの最適化にステップワイド報酬を利用するStepAgentを紹介する。
エージェント反射とポリシー調整を容易にする暗黙の逆・逆の強化学習手法を提案する。
論文 参考訳(メタデータ) (2024-11-06T10:35:11Z) - Evolutionary Reinforcement Learning via Cooperative Coevolution [4.9267335834028625]
本稿では,CoERLアルゴリズムを提案する。
協調的共進化に触発されて、CoERLは周期的に適応的にポリシー最適化問題を複数のサブプロブレムに分解する。
遺伝子操作子を使う代わりに、CoERLはポリシーを更新するために部分的な勾配を直接検索する。
6つのベンチマークロコモーションタスクの実験は、CoERLが7つの最先端アルゴリズムとベースラインを上回っていることを示している。
論文 参考訳(メタデータ) (2024-04-23T05:56:35Z) - Breaching the Bottleneck: Evolutionary Transition from Reward-Driven Learning to Reward-Agnostic Domain-Adapted Learning in Neuromodulated Neural Nets [0.3428444467046466]
AI学習アルゴリズムは、適切な振る舞いを取得するために、外部から用意された振る舞い品質の測定に頼っている。
これにより、多様な非逆刺激情報からの学習を妨げる情報のボトルネックが生じる。
まず、報奨信号から学習する能力を進化させ、非効率(ボトルネック化)だが広い適応性を提供することを提案する。
論文 参考訳(メタデータ) (2024-04-19T05:14:47Z) - DARLEI: Deep Accelerated Reinforcement Learning with Evolutionary
Intelligence [77.78795329701367]
本稿では,進化アルゴリズムと並列化強化学習を組み合わせたフレームワークであるDARLEIを提案する。
我々はDARLEIの性能を様々な条件で特徴付け、進化形態の多様性に影響を与える要因を明らかにした。
今後DARLEIを拡張して、よりリッチな環境における多様な形態素間の相互作用を取り入れていきたいと考えています。
論文 参考訳(メタデータ) (2023-12-08T16:51:10Z) - Supplementing Gradient-Based Reinforcement Learning with Simple
Evolutionary Ideas [4.873362301533824]
我々は、強化学習(RL)における大規模だが指向的な学習ステップを導入するための、単純でサンプル効率のよいアルゴリズムを提案する。
この手法では、共通経験バッファを持つRLエージェントの集団を用いて、ポリシー空間を効率的に探索するために、エージェントのクロスオーバーと突然変異を行う。
論文 参考訳(メタデータ) (2023-05-10T09:46:53Z) - Variance-Reduced Gradient Estimation via Noise-Reuse in Online Evolution
Strategies [50.10277748405355]
Noise-Reuse Evolution Strategies (NRES) は、非バイアスのオンライン進化戦略の一般的なクラスである。
NRESの結果は既存のAD法やES法よりも早く,様々なアプリケーションにまたがるウォールクロック時間とステップ数で収束することを示す。
論文 参考訳(メタデータ) (2023-04-21T17:53:05Z) - Evolutionary Multi-Armed Bandits with Genetic Thompson Sampling [13.173307471333619]
遺伝的トンプソンサンプリング(英語版)は、エージェントの集団を維持し、エリート選択、クロスオーバー、突然変異などの遺伝的原理でそれらを更新するバンディットアルゴリズムである。
EvoBanditはWebベースのインタラクティブな視覚化で、学習プロセス全体を通して読者をガイドし、オンザフライで軽量な評価を行う。
論文 参考訳(メタデータ) (2022-04-26T22:41:17Z) - Behavior-based Neuroevolutionary Training in Reinforcement Learning [3.686320043830301]
本稿では,神経進化的最適化と価値に基づく強化学習を組み合わせたハイブリッドアルゴリズムを提案する。
この目的のために,エージェントポリシーの生成と最適化のための異なる手法を統合し,多様な集団を創出する。
その結果, 進化的手法のサンプル効率と学習速度を向上できることがわかった。
論文 参考訳(メタデータ) (2021-05-17T15:40:42Z) - Epigenetic evolution of deep convolutional models [81.21462458089142]
我々は、より深い畳み込みモデルを進化させるために、これまで提案されていた神経進化の枠組みを構築した。
異なる形状と大きさのカーネルを同一層内に共存させる畳み込み層配置を提案する。
提案したレイアウトにより、畳み込み層内の個々のカーネルのサイズと形状を、対応する新しい突然変異演算子で進化させることができる。
論文 参考訳(メタデータ) (2021-04-12T12:45:16Z) - Evolving Reinforcement Learning Algorithms [186.62294652057062]
メタラーニング強化学習アルゴリズムの手法を提案する。
学習アルゴリズムはドメインに依存しないため、トレーニング中に見えない新しい環境に一般化することができる。
従来の制御タスク、gridworld型タスク、atariゲームよりも優れた一般化性能を得る2つの学習アルゴリズムに注目した。
論文 参考訳(メタデータ) (2021-01-08T18:55:07Z) - Guided Variational Autoencoder for Disentanglement Learning [79.02010588207416]
本稿では,潜在表現非絡み合い学習を行うことで,制御可能な生成モデルを学習できるアルゴリズム,Guided-VAEを提案する。
我々は、ガイド-VAEにおける教師なし戦略と教師なし戦略を設計し、バニラVAE上でのモデリングと制御能力の強化を観察する。
論文 参考訳(メタデータ) (2020-04-02T20:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。