論文の概要: A utility-based analysis of equilibria in multi-objective normal form
games
- arxiv url: http://arxiv.org/abs/2001.08177v1
- Date: Fri, 17 Jan 2020 22:27:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-10 09:58:22.703264
- Title: A utility-based analysis of equilibria in multi-objective normal form
games
- Title(参考訳): 多目的正規形ゲームにおける効用に基づく平衡解析
- Authors: Roxana R\u{a}dulescu, Patrick Mannion, Yijie Zhang, Diederik M.
Roijers, and Ann Now\'e
- Abstract要約: 我々は、MOMASにおける競合する目的間の妥協は、システムのユーザにとってこれらの妥協が持つ実用性に基づいて分析されるべきである、と論じる。
このユーティリティベースのアプローチは、MOMAS内のエージェントに対する2つの異なる最適化基準を自然に導く。
非線型効用関数を用いる場合、最適化基準の選択はMONFGにおける平衡の集合を根本的に変更できることを示す。
- 参考スコア(独自算出の注目度): 4.632366780742502
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In multi-objective multi-agent systems (MOMAS), agents explicitly consider
the possible tradeoffs between conflicting objective functions. We argue that
compromises between competing objectives in MOMAS should be analysed on the
basis of the utility that these compromises have for the users of a system,
where an agent's utility function maps their payoff vectors to scalar utility
values. This utility-based approach naturally leads to two different
optimisation criteria for agents in a MOMAS: expected scalarised returns (ESR)
and scalarised expected returns (SER). In this article, we explore the
differences between these two criteria using the framework of multi-objective
normal form games (MONFGs). We demonstrate that the choice of optimisation
criterion (ESR or SER) can radically alter the set of equilibria in a MONFG
when non-linear utility functions are used.
- Abstract(参考訳): 多目的マルチエージェントシステム(MOMAS)では、エージェントは競合する目的関数間のトレードオフを明示的に考慮する。
MOMASにおける競合する目的間の妥協は、エージェントのユーティリティ関数が彼らの支払ベクトルをスカラーなユーティリティ値にマッピングするシステムのユーザに対して、これらの妥協が持つユーティリティに基づいて分析されるべきである。
このユーティリティベースのアプローチは、MOMAS内のエージェントに対する2つの異なる最適化基準(予測スカラー化リターン(ESR)とスカラー化期待リターン(SER))を自然に導く。
本稿では,多目的正規形ゲーム(monfgs)の枠組みを用いて,これら2つの基準の違いについて考察する。
非線型効用関数を用いる場合、最適化基準(ESRまたはSER)の選択はMONFGにおける平衡の集合を根本的に変更できることを示す。
関連論文リスト
- Value function interference and greedy action selection in value-based
multi-objective reinforcement learning [1.4206639868377509]
多目的強化学習(MORL)アルゴリズムは従来の強化学習(RL)を拡張する
ユーザのユーティリティ関数が、ベクター値と類似のユーティリティレベルを幅広くマップしている場合、これは干渉を引き起こす可能性があることを示す。
我々は、欲求行動を特定する際にランダムなタイブレークを避けることは、値関数の干渉によって生じる問題を改善できるが、完全には克服できないことを実証的に示す。
論文 参考訳(メタデータ) (2024-02-09T09:28:01Z) - Beyond One-Preference-Fits-All Alignment: Multi-Objective Direct
Preference Optimization [78.50294936259026]
我々は、最小限のオーバーヘッドで複数のアライメント目標に対して、MODPO(Multi-Objective Direct Preference Optimization)を提案する。
MODPOは言語モデリングを直接報酬モデリングに折り畳み、全ての目的を特定の重み付けと組み合わせた暗黙的な集団報酬モデル(cRM)としてLMを訓練する。
理論上は MORLHF と同じ最適解を生成することが保証されているが、MODPO は事実上より安定で計算的に効率的である。
論文 参考訳(メタデータ) (2023-10-05T17:35:26Z) - BOtied: Multi-objective Bayesian optimization with tied multivariate
ranks [49.85896045032822]
非支配解と最高多変量階との自然な関係を示し、これは合同累積分布関数(CDF)の最外層線と一致する。
我々はCDFインジケータに基づくBOtiedと呼ばれる取得関数を提案する。
論文 参考訳(メタデータ) (2023-06-01T04:50:06Z) - Multi-Objective GFlowNets [59.16787189214784]
本稿では,多目的最適化の文脈において,多様な候補を生成する問題について検討する。
薬物発見やマテリアルデザインといった機械学習の多くの応用において、目標は、競合する可能性のある目標のセットを同時に最適化する候補を生成することである。
GFlowNetsをベースとした多目的GFlowNets(MOGFNs)を提案する。
論文 参考訳(メタデータ) (2022-10-23T16:15:36Z) - Multi-Target XGBoostLSS Regression [91.3755431537592]
本稿では,複数の目標とその依存関係を確率論的回帰設定でモデル化するXGBoostLSSの拡張について述べる。
提案手法は,既存のGBMよりも実行時の方が優れており,精度も良好に比較できる。
論文 参考訳(メタデータ) (2022-10-13T08:26:14Z) - Multi-Objective Coordination Graphs for the Expected Scalarised Returns
with Generative Flow Models [2.7648976108201815]
現実世界の問題を解決する鍵は、エージェント間の疎結合構造を利用することである。
風力発電の制御においては、電力の最大化とシステムコンポーネントのストレスの最小化の間にトレードオフが存在する。
エージェント間の疎結合を多目的協調グラフ(MO-CoG)としてモデル化する。
論文 参考訳(メタデータ) (2022-07-01T12:10:15Z) - Mono-surrogate vs Multi-surrogate in Multi-objective Bayesian
Optimisation [0.0]
目的関数毎に代理モデルを構築し、スカラー化関数分布がガウス的でないことを示す。
標準ベンチマークや実世界の最適化問題に対する既存手法との比較は,マルチサロゲート方式の可能性を示している。
論文 参考訳(メタデータ) (2022-05-02T09:25:04Z) - R-MBO: A Multi-surrogate Approach for Preference Incorporation in
Multi-objective Bayesian Optimisation [0.0]
本稿では,多目的BOにおける意思決定者の嗜好として,目的関数を目的関数値に組み込むための,a-priori Multi-surrogateアプローチを提案する。
ベンチマークと実世界の最適化問題に対する既存モノ代理手法との比較は,提案手法の可能性を示している。
論文 参考訳(メタデータ) (2022-04-27T19:58:26Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - Opponent Learning Awareness and Modelling in Multi-Objective Normal Form
Games [5.0238343960165155]
エージェントはシステム内の他のエージェントの振る舞いについて学ぶことが不可欠である。
本稿では,非線形ユーティリティとの多目的マルチエージェント相互作用に対する,このようなモデリングの効果について述べる。
論文 参考訳(メタデータ) (2020-11-14T12:35:32Z) - Randomized Entity-wise Factorization for Multi-Agent Reinforcement
Learning [59.62721526353915]
実世界のマルチエージェント設定は、エージェントや非エージェントエンティティのタイプや量が異なるタスクを伴うことが多い。
我々の方法は、これらの共通点を活用することを目的としており、「観察対象のランダムに選択されたサブグループのみを考えるとき、各エージェントが期待する効用は何か?」という問いを投げかける。
論文 参考訳(メタデータ) (2020-06-07T18:28:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。