論文の概要: A Practical Guide to Multi-Objective Reinforcement Learning and Planning
- arxiv url: http://arxiv.org/abs/2103.09568v1
- Date: Wed, 17 Mar 2021 11:07:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-18 13:08:24.115967
- Title: A Practical Guide to Multi-Objective Reinforcement Learning and Planning
- Title(参考訳): 多目的強化学習と計画のための実践的ガイド
- Authors: Conor F. Hayes, Roxana R\u{a}dulescu, Eugenio Bargiacchi, Johan
K\"allstr\"om, Matthew Macfarlane, Mathieu Reymond, Timothy Verstraeten,
Luisa M. Zintgraf, Richard Dazeley, Fredrik Heintz, Enda Howley, Athirai A.
Irissappane, Patrick Mannion, Ann Now\'e, Gabriel Ramos, Marcello Restelli,
Peter Vamplew, Diederik M. Roijers
- Abstract要約: 本論文は, 困難な問題に対する多対象的手法の適用の指針となる。
望ましい解の性質に影響を与える可能性のある因子を識別する。
これは、これらが多目的意思決定システムの設計にどのように影響するかを例示する。
- 参考スコア(独自算出の注目度): 24.81310809455139
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world decision-making tasks are generally complex, requiring trade-offs
between multiple, often conflicting, objectives. Despite this, the majority of
research in reinforcement learning and decision-theoretic planning either
assumes only a single objective, or that multiple objectives can be adequately
handled via a simple linear combination. Such approaches may oversimplify the
underlying problem and hence produce suboptimal results. This paper serves as a
guide to the application of multi-objective methods to difficult problems, and
is aimed at researchers who are already familiar with single-objective
reinforcement learning and planning methods who wish to adopt a multi-objective
perspective on their research, as well as practitioners who encounter
multi-objective decision problems in practice. It identifies the factors that
may influence the nature of the desired solution, and illustrates by example
how these influence the design of multi-objective decision-making systems for
complex problems.
- Abstract(参考訳): 現実の意思決定タスクは一般的に複雑で、複数の、しばしば矛盾する目標間のトレードオフを必要とします。
それにもかかわらず、強化学習と意思決定理論計画の研究の大半は単一の目的のみを仮定するか、単純な線形結合によって複数の目的を適切に扱うことができる。
このようなアプローチは根底にある問題を単純化し、従って準最適結果を生み出す。
本論文は,多目的強化学習と計画手法に慣れ親しんでいる研究者や,実際に多目的意思決定問題に遭遇した実践者を対象として,多目的強化学習と計画手法の課題に対する多目的適用のガイドとして機能する。
望まれる解の性質に影響を与える要因を特定し、複雑な問題に対する多目的意思決定システムの設計にどのように影響するかを例示する。
関連論文リスト
- Many-Objective Multi-Solution Transport [36.07360460509921]
many-objective multi-solution Transport (MosT) は、Paretoの多くの目的に対して複数の多様なソリューションを見つけるためのフレームワークである。
MosTはこの問題を各解に対する重み付けされた目的の2段階の最適化として定式化し、そこでは重み付けは目的と解の間の最適な輸送によって定義される。
論文 参考訳(メタデータ) (2024-03-06T23:03:12Z) - PMGDA: A Preference-based Multiple Gradient Descent Algorithm [12.600588000788214]
マルチタスク学習のような、多くの多目的機械学習アプリケーションにおいて、意思決定者の所定の好みに合ったソリューションを見つけることが望ましい。
本稿では,意思決定者の好みに合ったソリューションを見つけるための,新しい予測と修正のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-14T11:27:31Z) - Learning with Constraint Learning: New Perspective, Solution Strategy
and Various Applications [45.45917703420217]
本稿では,制約付き学習(LwCL)と呼ばれる新しいフレームワークを提案する。
LwCLは、多様な学習や視覚問題の本質を捉える一般的な階層的最適化モデルとして設計されている。
提案フレームワークは,3つのカテゴリと9つの異なる問題タイプを含む,学習と視覚の幅広い応用に効果的に対処する。
論文 参考訳(メタデータ) (2023-07-28T01:50:27Z) - Multi-Target Multiplicity: Flexibility and Fairness in Target
Specification under Resource Constraints [76.84999501420938]
対象の選択が個人の結果にどのように影響するかを評価するための概念的および計算的枠組みを導入する。
目的変数選択から生じる多重度は, 1つのターゲットのほぼ最適モデルから生じるものよりも大きいことが示される。
論文 参考訳(メタデータ) (2023-06-23T18:57:14Z) - A Scale-Independent Multi-Objective Reinforcement Learning with
Convergence Analysis [0.6091702876917281]
多くのシーケンシャルな意思決定問題は、対立する可能性のある異なる目的の最適化を必要とする。
本稿では,Advantage Actor-Critic (A2C)アルゴリズムに基づいて,単エージェントスケール非依存型多目的強化学習を開発する。
次に、収束保証を提供する考案された多目的アルゴリズムに対して収束解析を行う。
論文 参考訳(メタデータ) (2023-02-08T16:38:55Z) - On solving decision and risk management problems subject to uncertainty [91.3755431537592]
不確実性は意思決定とリスク管理において広範囲にわたる課題である。
本稿では,このような戦略を体系的に理解し,その適用範囲を判断し,それらをうまく活用するための枠組みを開発する。
論文 参考訳(メタデータ) (2023-01-18T19:16:23Z) - Discovering Diverse Solutions in Deep Reinforcement Learning [84.45686627019408]
強化学習アルゴリズムは通常、特定のタスクの単一のソリューションを学ぶことに限定される。
連続的あるいは離散的な低次元潜在変数に条件付きポリシーを訓練することにより、無限に多くの解を学習できるRL法を提案する。
論文 参考訳(メタデータ) (2021-03-12T04:54:31Z) - Provable Multi-Objective Reinforcement Learning with Generative Models [98.19879408649848]
目的の選好から最適な政策を学習する単一政策 MORL の問題について検討する。
既存の方法は、多目的決定プロセスの正確な知識のような強い仮定を必要とする。
モデルベースエンベロップ値 (EVI) と呼ばれる新しいアルゴリズムを提案し, 包含された多目的$Q$学習アルゴリズムを一般化する。
論文 参考訳(メタデータ) (2020-11-19T22:35:31Z) - Small Towers Make Big Differences [59.243296878666285]
マルチタスク学習は、複数の機械学習タスクを同時に解決することを目的としている。
マルチタスク学習問題に対する優れた解法は、Paretoの最適性に加えて一般化可能であるべきである。
本稿では,マルチタスクモデルのためのパラメータ下自己助詞の手法を提案し,両世界のベストを達成した。
論文 参考訳(メタデータ) (2020-08-13T10:45:31Z) - A Distributional View on Multi-Objective Policy Optimization [24.690800846837273]
大規模不変な方法で目的の好みを設定することができる多目的強化学習アルゴリズムを提案する。
フレームワーク内で異なる好みを設定することで、非支配的なソリューションの空間を追跡できることを示す。
論文 参考訳(メタデータ) (2020-05-15T13:02:17Z) - Pareto Multi-Task Learning [53.90732663046125]
マルチタスク学習は複数の相関タスクを同時に解くための強力な方法である。
異なるタスクが互いに衝突する可能性があるため、すべてのタスクを最適化するひとつのソリューションを見つけることは、しばしば不可能である。
近年,マルチタスク学習を多目的最適化として活用することにより,タスク間のトレードオフが良好である1つのパレート最適解を求める方法が提案されている。
論文 参考訳(メタデータ) (2019-12-30T08:58:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。