論文の概要: Solution and Fitness Evolution (SAFE): Coevolving Solutions and Their
Objective Functions
- arxiv url: http://arxiv.org/abs/2206.12707v1
- Date: Sat, 25 Jun 2022 18:41:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-28 15:23:31.156667
- Title: Solution and Fitness Evolution (SAFE): Coevolving Solutions and Their
Objective Functions
- Title(参考訳): ソリューションとフィットネスの進化(safe) : 共進化するソリューションとその客観的機能
- Authors: Moshe Sipper, Jason H. Moore, Ryan J. Urbanowicz
- Abstract要約: 戦略をテキスト化するための効果的な客観的関数は、目的への距離の単純な関数ではないかもしれない。
我々はtextbfSolution textbfAnd textbfFitness textbfSAFE, textitcommensalistic coevolutionary algorithmを提案する。
- 参考スコア(独自算出の注目度): 4.149117182410553
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We recently highlighted a fundamental problem recognized to confound
algorithmic optimization, namely, \textit{conflating} the objective with the
objective function. Even when the former is well defined, the latter may not be
obvious, e.g., in learning a strategy to navigate a maze to find a goal
(objective), an effective objective function to \textit{evaluate} strategies
may not be a simple function of the distance to the objective. We proposed to
automate the means by which a good objective function may be discovered -- a
proposal reified herein. We present \textbf{S}olution \textbf{A}nd
\textbf{F}itness \textbf{E}volution (\textbf{SAFE}), a \textit{commensalistic}
coevolutionary algorithm that maintains two coevolving populations: a
population of candidate solutions and a population of candidate objective
functions. As proof of principle of this concept, we show that SAFE
successfully evolves not only solutions within a robotic maze domain, but also
the objective functions needed to measure solution quality during evolution.
- Abstract(参考訳): 我々は最近,アルゴリズム最適化,すなわち目的関数を目的関数と組み合わせることによって認識される根本的な問題を強調した。
前者はよく定義されているとしても、後者は明確ではないかもしれない、例えば、迷路をナビゲートして目標(客観的)を見つける戦略を学ぶとき、目的への距離の単純な関数ではないかもしれない。
我々は、適切な目的関数を発見できる手段を自動化することを提案した。
本稿では,2つの進化的集団(候補解の集団と対象関数の集団)を維持する,\textit{commensalistic}共進化アルゴリズムである \textbf{s}olution \textbf{a}nd \textbf{f}itness \textbf{e}volution (\textbf{safe})を提案する。
この概念の原理の証明として、safeはロボット迷路ドメイン内の解をうまく進化させるだけでなく、進化中の解の品質を測定するのに必要な目的関数も示す。
関連論文リスト
- Discrete Factorial Representations as an Abstraction for Goal
Conditioned Reinforcement Learning [99.38163119531745]
離散化ボトルネックを適用することにより,目標条件付きRLセットアップの性能が向上することを示す。
分布外目標に対する期待した回帰を実験的に証明し、同時に表現的な構造で目標を指定できるようにします。
論文 参考訳(メタデータ) (2022-11-01T03:31:43Z) - Unsupervised Learning for Combinatorial Optimization with Principled
Objective Relaxation [19.582494782591386]
本研究は,最適化(CO)問題に対する教師なし学習フレームワークを提案する。
我々の重要な貢献は、緩和された目的がエントリーワイドな凹凸を満たすならば、低い最適化損失は最終積分解の品質を保証するという観察である。
特に、この観察は、対象が明示的に与えられていないアプリケーションにおいて、事前にモデル化される必要がある場合に、対象モデルの設計を導くことができる。
論文 参考訳(メタデータ) (2022-07-13T06:44:17Z) - Solution and Fitness Evolution (SAFE): A Study of Multiobjective
Problems [4.149117182410553]
我々は最近、2つの共進化する集団を維持する共進化的共進化アルゴリズムSAFEを発表した。
その結果,SAFEはロボット迷路領域内でのソリューションの進化に成功していることがわかった。
予備的ではあるが、結果はSAFEと共進化解と目的関数の概念が類似した最適多目的解の集合を特定することを示唆している。
論文 参考訳(メタデータ) (2022-06-25T18:42:05Z) - Adaptive Multi-Goal Exploration [118.40427257364729]
我々は、AdaGoalが$epsilon$-optimal goal-conditioned policyを学習する目的を達成するためにどのように使えるかを示す。
AdaGoalは、ゴール条件の深い強化学習のための既存の手法の高レベルなアルゴリズム構造に固定されている。
論文 参考訳(メタデータ) (2021-11-23T17:59:50Z) - C-Planning: An Automatic Curriculum for Learning Goal-Reaching Tasks [133.40619754674066]
ゴール条件強化学習は、ナビゲーションや操作を含む幅広い領域のタスクを解決できる。
本研究では,学習時間における探索を用いて,中間状態を自動生成する遠隔目標獲得タスクを提案する。
E-stepはグラフ検索を用いて最適な経路点列を計画することに対応し、M-stepはそれらの経路点に到達するための目標条件付きポリシーを学習することを目的としている。
論文 参考訳(メタデータ) (2021-10-22T22:05:31Z) - Many Objective Bayesian Optimization [0.0]
マルチオブジェクトベイズ最適化(MOBO)は、ブラックボックスの同時最適化に成功している一連の手法である。
特に、MOBO法は、多目的最適化問題における目的の数が3以上である場合に問題があり、これは多くの目的設定である。
GPが測定値とアルゴリズムの有効性の予測分布を予測できるような,玩具,合成,ベンチマーク,実実験のセットで実証的な証拠を示す。
論文 参考訳(メタデータ) (2021-07-08T21:57:07Z) - Adversarial Intrinsic Motivation for Reinforcement Learning [60.322878138199364]
政策状態の訪問分布と目標分布とのワッサースタイン-1距離が強化学習タスクに有効に活用できるかどうかを検討する。
我々のアプローチは、AIM (Adversarial Intrinsic Motivation) と呼ばれ、このワッサーシュタイン-1距離をその双対目的を通して推定し、補足報酬関数を計算する。
論文 参考訳(メタデータ) (2021-05-27T17:51:34Z) - Outcome-Driven Reinforcement Learning via Variational Inference [95.82770132618862]
我々は、報酬を最大化する問題ではなく、望ましい結果を達成するための行動を推測する問題として、強化学習に関する新たな視点について論じる。
結果として得られる結果指向推論の問題を解決するため, 定型的報酬関数を導出する新しい変分推論定式を制定する。
我々は,この手法が報酬機能の設計を不要とし,効果的なゴール指向行動へと導くことを実証的に示す。
論文 参考訳(メタデータ) (2021-04-20T18:16:21Z) - CACTUS: Detecting and Resolving Conflicts in Objective Functions [16.784454432715712]
多対象最適化において、矛盾する目的と制約は大きな関心事である。
本稿では,多目的目的関数を可視化する手法をプロトタイプ化して,この作業範囲を拡張する。
本手法は,分類タスクの潜在的な競合を解決することによって,ユーザが対話的に有意義な目的関数を特定できることを示す。
論文 参考訳(メタデータ) (2021-03-13T22:38:47Z) - Automatic Curriculum Learning through Value Disagreement [95.19299356298876]
新しい未解決タスクを継続的に解決することが、多様な行動を学ぶための鍵です。
エージェントが複数の目標を達成する必要があるマルチタスク領域では、トレーニング目標の選択はサンプル効率に大きな影響を与える可能性がある。
そこで我々は,エージェントが解決すべき目標のための自動カリキュラムを作成することを提案する。
提案手法は,13のマルチゴールロボットタスクと5つのナビゲーションタスクにまたがって評価し,現在の最先端手法よりも高い性能を示す。
論文 参考訳(メタデータ) (2020-06-17T03:58:25Z) - sKPNSGA-II: Knee point based MOEA with self-adaptive angle for Mission
Planning Problems [2.191505742658975]
いくつかの問題には、多くの非支配的な解をもたらす多くの目的がある。
本稿では,最も重要な解を得るために設計された新しいアルゴリズムを提案する。
このアルゴリズムは無人航空機(UAV)ミッション計画問題における実世界の応用に応用されている。
論文 参考訳(メタデータ) (2020-02-20T17:07:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。