論文の概要: Emergence of Novelty in Evolutionary Algorithms
- arxiv url: http://arxiv.org/abs/2207.04857v1
- Date: Mon, 27 Jun 2022 13:49:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-17 19:56:40.607993
- Title: Emergence of Novelty in Evolutionary Algorithms
- Title(参考訳): 進化アルゴリズムにおける新奇性の出現
- Authors: David Herel, Dominika Zogatova, Matej Kripner, Tomas Mikolov
- Abstract要約: 迷路問題にアプローチを導入し,提案した解と比較する。
私たちのソリューションでは、パフォーマンスが大幅に向上すると同時に、はるかにシンプルであることに気付きました。
そこで我々は,この問題を一般化し,より高度なタスクセットであるAtari Gamesにアプローチを適用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One of the main problems of evolutionary algorithms is the convergence of the
population to local minima. In this paper, we explore techniques that can avoid
this problem by encouraging a diverse behavior of the agents through a shared
reward system. The rewards are randomly distributed in the environment, and the
agents are only rewarded for collecting them first. This leads to an emergence
of a novel behavior of the agents. We introduce our approach to the maze
problem and compare it to the previously proposed solution, denoted as Novelty
Search (Lehman and Stanley, 2011a). We find that our solution leads to an
improved performance while being significantly simpler. Building on that, we
generalize the problem and apply our approach to a more advanced set of tasks,
Atari Games, where we observe a similar performance quality with much less
computational power needed.
- Abstract(参考訳): 進化的アルゴリズムの大きな問題の1つは、人口の局所的なミニマへの収束である。
本稿では,共有報酬システムを通じてエージェントの多様な行動を促すことにより,この問題を回避する手法を検討する。
報酬は環境にランダムに分配され、エージェントはまずそれらを集めることでのみ報酬を受ける。
これにより、エージェントの新たな振る舞いが出現する。
本手法を迷路問題に適用し, ノベルティ・サーチ (Lehman and Stanley, 2011a) と呼ばれる従来提案されていた解と比較する。
私たちのソリューションでは、パフォーマンスが大幅に向上し、さらにシンプルになりました。
これに基づいて問題を一般化し、より高度なタスクセットであるAtari Gamesにアプローチを適用する。
関連論文リスト
- On the Complexity of Multi-Agent Decision Making: From Learning in Games
to Partial Monitoring [105.13668993076801]
マルチエージェント強化学習(MARL)理論における中心的な問題は、構造条件やアルゴリズムの原理がサンプル効率の学習保証につながるかを理解することである。
本稿では,複数のエージェントを用いた対話型意思決定のための一般的な枠組みとして,この問題について考察する。
マルチエージェント意思決定における統計的複雑性を特徴付けることは、単一エージェント決定の統計的複雑性を特徴付けることと等価であることを示す。
論文 参考訳(メタデータ) (2023-05-01T06:46:22Z) - Factorization of Multi-Agent Sampling-Based Motion Planning [72.42734061131569]
現代のロボティクスは、共有環境内で複数のエンボディエージェントを動作させることが多い。
標準的なサンプリングベースのアルゴリズムは、ロボットの関節空間における解の探索に使用できる。
我々は、因子化の概念をサンプリングベースアルゴリズムに統合し、既存の手法への最小限の変更しか必要としない。
本稿では, PRM* のサンプル複雑性の観点から解析的ゲインを導出し, RRG の実証結果を示す。
論文 参考訳(メタデータ) (2023-04-01T15:50:18Z) - Fast Re-Optimization of LeadingOnes with Frequent Changes [0.9281671380673306]
Doerrらによって提案された再最適化アプローチは、問題インスタンスがより頻繁な変更の傾向にある場合に限界に達することを示す。
本稿では,前ベスト周辺における欲求探索と現在ベスト解を補間するアルゴリズムの修正を提案する。
論文 参考訳(メタデータ) (2022-09-09T16:51:41Z) - Frequent Itemset-driven Search for Finding Minimum Node Separators in
Complex Networks [61.2383572324176]
本稿では,データマイニングにおける頻繁なアイテムセットマイニングの概念をよく知られたメメティック検索フレームワークに統合する,頻繁なアイテムセット駆動探索手法を提案する。
頻繁なアイテムセット組換え演算子を反復的に使用して、高品質なソリューションで頻繁に発生するアイテムセットに基づいた有望な子孫ソリューションを生成する。
特に、29個の新しい上界を発見し、以前の18個の最もよく知られた境界と一致する。
論文 参考訳(メタデータ) (2022-01-18T11:16:40Z) - ROMAX: Certifiably Robust Deep Multiagent Reinforcement Learning via
Convex Relaxation [32.091346776897744]
サイバー物理攻撃は、マルチエージェント強化学習の堅牢性に挑戦することができる。
我々は,他のエージェントの最悪のポリシー更新を推測するミニマックスMARL手法を提案する。
論文 参考訳(メタデータ) (2021-09-14T16:18:35Z) - Online reinforcement learning with sparse rewards through an active
inference capsule [62.997667081978825]
本稿では,将来期待される新しい自由エネルギーを最小化するアクティブ推論エージェントを提案する。
我々のモデルは、非常に高いサンプル効率でスパース・リワード問題を解くことができる。
また、複雑な目的の表現を単純化する報奨関数から事前モデルを近似する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-06-04T10:03:36Z) - Scalable, Decentralized Multi-Agent Reinforcement Learning Methods
Inspired by Stigmergy and Ant Colonies [0.0]
分散型マルチエージェント学習と計画に対する新しいアプローチを検討する。
特に、この方法はアリコロニーの凝集、協調、行動に触発されている。
このアプローチは、単一エージェントRLと、マルチエージェントパス計画と環境修正のためのアリコロニーに触発された分散型のスティグメロジカルアルゴリズムを組み合わせたものである。
論文 参考訳(メタデータ) (2021-05-08T01:04:51Z) - Guided Exploration with Proximal Policy Optimization using a Single
Demonstration [5.076419064097734]
エージェントを実演と経験の組み合わせで訓練し、初期条件の異なる問題を解く。
エージェントは、自身の過去の軌跡を再生することで、その性能を高め、困難な問題に対処することができる。
私たちの知識を最大限に活用するために、人間の実演を1つだけ使う前に、同等の難易度を持つ3次元環境でタスクを学習することは、これまで考えられなかった。
論文 参考訳(メタデータ) (2020-07-07T10:30:32Z) - Sequential Transfer in Reinforcement Learning with a Generative Model [48.40219742217783]
本稿では,従来の課題から知識を移譲することで,新たな課題を学習する際のサンプルの複雑さを軽減する方法について述べる。
この種の事前知識を使用することのメリットを明確に示すために,PAC境界のサンプル複雑性を導出する。
簡単なシミュレートされた領域における理論的な発見を実証的に検証する。
論文 参考訳(メタデータ) (2020-07-01T19:53:35Z) - MineReduce: an approach based on data mining for problem size reduction [58.720142291102135]
本稿では,マイニングパターンを用いて問題サイズの削減を行うMineReduceという手法を提案する。
異種車両ルーティング問題に対するMineReduceの適用について述べる。
論文 参考訳(メタデータ) (2020-05-15T08:49:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。