論文の概要: A Practical Guide to Multi-Objective Reinforcement Learning and Planning
- arxiv url: http://arxiv.org/abs/2103.09568v1
- Date: Wed, 17 Mar 2021 11:07:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-18 13:08:24.115967
- Title: A Practical Guide to Multi-Objective Reinforcement Learning and Planning
- Title(参考訳): 多目的強化学習と計画のための実践的ガイド
- Authors: Conor F. Hayes, Roxana R\u{a}dulescu, Eugenio Bargiacchi, Johan
K\"allstr\"om, Matthew Macfarlane, Mathieu Reymond, Timothy Verstraeten,
Luisa M. Zintgraf, Richard Dazeley, Fredrik Heintz, Enda Howley, Athirai A.
Irissappane, Patrick Mannion, Ann Now\'e, Gabriel Ramos, Marcello Restelli,
Peter Vamplew, Diederik M. Roijers
- Abstract要約: 本論文は, 困難な問題に対する多対象的手法の適用の指針となる。
望ましい解の性質に影響を与える可能性のある因子を識別する。
これは、これらが多目的意思決定システムの設計にどのように影響するかを例示する。
- 参考スコア(独自算出の注目度): 24.81310809455139
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world decision-making tasks are generally complex, requiring trade-offs
between multiple, often conflicting, objectives. Despite this, the majority of
research in reinforcement learning and decision-theoretic planning either
assumes only a single objective, or that multiple objectives can be adequately
handled via a simple linear combination. Such approaches may oversimplify the
underlying problem and hence produce suboptimal results. This paper serves as a
guide to the application of multi-objective methods to difficult problems, and
is aimed at researchers who are already familiar with single-objective
reinforcement learning and planning methods who wish to adopt a multi-objective
perspective on their research, as well as practitioners who encounter
multi-objective decision problems in practice. It identifies the factors that
may influence the nature of the desired solution, and illustrates by example
how these influence the design of multi-objective decision-making systems for
complex problems.
- Abstract(参考訳): 現実の意思決定タスクは一般的に複雑で、複数の、しばしば矛盾する目標間のトレードオフを必要とします。
それにもかかわらず、強化学習と意思決定理論計画の研究の大半は単一の目的のみを仮定するか、単純な線形結合によって複数の目的を適切に扱うことができる。
このようなアプローチは根底にある問題を単純化し、従って準最適結果を生み出す。
本論文は,多目的強化学習と計画手法に慣れ親しんでいる研究者や,実際に多目的意思決定問題に遭遇した実践者を対象として,多目的強化学習と計画手法の課題に対する多目的適用のガイドとして機能する。
望まれる解の性質に影響を与える要因を特定し、複雑な問題に対する多目的意思決定システムの設計にどのように影響するかを例示する。
関連論文リスト
- Guided Learning: Lubricating End-to-End Modeling for Multi-stage Decision-making [7.106919452604968]
多段階意思決定におけるエンド・ツー・エンド・ラーニングを強化するためのガイドド・ラーニングを提案する。
本稿では,中間的ニューラルネットワーク層を段階的な目標に向けてトレーニングする関数である「ガイド」の概念を紹介する。
明示的な監督ラベルを欠いた意思決定シナリオに対しては、全決定の報酬'を定量化するユーティリティ関数を組み込む。
論文 参考訳(メタデータ) (2024-11-15T06:54:25Z) - Deep Pareto Reinforcement Learning for Multi-Objective Recommender Systems [60.91599969408029]
複数の目的を同時に最適化することは、レコメンデーションプラットフォームにとって重要なタスクです。
既存の多目的推薦システムは、そのような動的な関係を体系的に考慮していない。
論文 参考訳(メタデータ) (2024-07-04T02:19:49Z) - UCB-driven Utility Function Search for Multi-objective Reinforcement Learning [75.11267478778295]
マルチオブジェクト強化学習(MORL)エージェントでは、意思決定行動の最適化を行う。
重みベクトル w でパラメータ化される線型効用関数の場合に焦点を当てる。
学習過程の異なる段階で最も有望な重みベクトルを効率的に探索する上信頼境界に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-05-01T09:34:42Z) - Many-Objective Multi-Solution Transport [36.07360460509921]
many-objective multi-solution Transport (MosT) は、Paretoの多くの目的に対して複数の多様なソリューションを見つけるためのフレームワークである。
MosTはこの問題を各解に対する重み付けされた目的の2段階の最適化として定式化し、そこでは重み付けは目的と解の間の最適な輸送によって定義される。
論文 参考訳(メタデータ) (2024-03-06T23:03:12Z) - PMGDA: A Preference-based Multiple Gradient Descent Algorithm [12.600588000788214]
マルチタスク学習のような、多くの多目的機械学習アプリケーションにおいて、意思決定者の所定の好みに合ったソリューションを見つけることが望ましい。
本稿では,意思決定者の好みに合ったソリューションを見つけるための,新しい予測と修正のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-14T11:27:31Z) - Learning with Constraint Learning: New Perspective, Solution Strategy
and Various Applications [45.45917703420217]
本稿では,制約付き学習(LwCL)と呼ばれる新しいフレームワークを提案する。
LwCLは、多様な学習や視覚問題の本質を捉える一般的な階層的最適化モデルとして設計されている。
提案フレームワークは,3つのカテゴリと9つの異なる問題タイプを含む,学習と視覚の幅広い応用に効果的に対処する。
論文 参考訳(メタデータ) (2023-07-28T01:50:27Z) - Multi-Target Multiplicity: Flexibility and Fairness in Target
Specification under Resource Constraints [76.84999501420938]
対象の選択が個人の結果にどのように影響するかを評価するための概念的および計算的枠組みを導入する。
目的変数選択から生じる多重度は, 1つのターゲットのほぼ最適モデルから生じるものよりも大きいことが示される。
論文 参考訳(メタデータ) (2023-06-23T18:57:14Z) - Discovering Diverse Solutions in Deep Reinforcement Learning [84.45686627019408]
強化学習アルゴリズムは通常、特定のタスクの単一のソリューションを学ぶことに限定される。
連続的あるいは離散的な低次元潜在変数に条件付きポリシーを訓練することにより、無限に多くの解を学習できるRL法を提案する。
論文 参考訳(メタデータ) (2021-03-12T04:54:31Z) - Provable Multi-Objective Reinforcement Learning with Generative Models [98.19879408649848]
目的の選好から最適な政策を学習する単一政策 MORL の問題について検討する。
既存の方法は、多目的決定プロセスの正確な知識のような強い仮定を必要とする。
モデルベースエンベロップ値 (EVI) と呼ばれる新しいアルゴリズムを提案し, 包含された多目的$Q$学習アルゴリズムを一般化する。
論文 参考訳(メタデータ) (2020-11-19T22:35:31Z) - A Distributional View on Multi-Objective Policy Optimization [24.690800846837273]
大規模不変な方法で目的の好みを設定することができる多目的強化学習アルゴリズムを提案する。
フレームワーク内で異なる好みを設定することで、非支配的なソリューションの空間を追跡できることを示す。
論文 参考訳(メタデータ) (2020-05-15T13:02:17Z) - Pareto Multi-Task Learning [53.90732663046125]
マルチタスク学習は複数の相関タスクを同時に解くための強力な方法である。
異なるタスクが互いに衝突する可能性があるため、すべてのタスクを最適化するひとつのソリューションを見つけることは、しばしば不可能である。
近年,マルチタスク学習を多目的最適化として活用することにより,タスク間のトレードオフが良好である1つのパレート最適解を求める方法が提案されている。
論文 参考訳(メタデータ) (2019-12-30T08:58:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。