論文の概要: Multi-Value Alignment in Normative Multi-Agent System: Evolutionary
Optimisation Approach
- arxiv url: http://arxiv.org/abs/2305.07366v1
- Date: Fri, 12 May 2023 10:30:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-15 13:30:11.938495
- Title: Multi-Value Alignment in Normative Multi-Agent System: Evolutionary
Optimisation Approach
- Title(参考訳): 規範的マルチエージェントシステムにおける多値アライメント:進化的最適化アプローチ
- Authors: Maha Riad, Vinicius Renan de Carvalho and Fatemeh Golpayegani
- Abstract要約: 本研究は,多目的進化アルゴリズムを用いて最適パラメトリックなノルムセットを生成する多値促進モデルを提案する。
2と5の値を持つ2つのおもちゃ税シナリオを考慮し、最適化された規範パラメータのセットを見つけるために、いくつかの進化的アルゴリズムが使用された。
- 参考スコア(独自算出の注目度): 1.160208922584163
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Value-alignment in normative multi-agent systems is used to promote a certain
value and to ensure the consistent behavior of agents in autonomous intelligent
systems with human values. However, the current literature is limited to
incorporation of effective norms for single value alignment with no
consideration of agents' heterogeneity and the requirement of simultaneous
promotion and alignment of multiple values. This research proposes a
multi-value promotion model that uses multi-objective evolutionary algorithms
to produce the optimum parametric set of norms that is aligned with multiple
simultaneous values of heterogeneous agents and the system. To understand
various aspects of this complex problem, several evolutionary algorithms were
used to find a set of optimised norm parameters considering two toy tax
scenarios with two and five values are considered. The results are analysed
from different perspectives to show the impact of a selected evolutionary
algorithm on the solution, and the importance of understanding the relation
between values when prioritising them.
- Abstract(参考訳): 規範的マルチエージェントシステムにおけるバリューアライメントは、特定の価値を促進し、人間の価値を持つ自律的インテリジェントシステムにおけるエージェントの一貫性のある振る舞いを保証するために使用される。
しかし、現在の文献は、エージェントの不均一性や複数の値の同時進行とアライメントの要件を考慮せずに、単一値アライメントの効果的な規範を組み込むことに限られている。
本研究では、多目的進化アルゴリズムを用いて、異種エージェントとシステムの複数同時値に整合した最適パラメトリックなノルムセットを生成する多値促進モデルを提案する。
この複雑な問題の様々な側面を理解するために、2と5の値を持つ2つのおもちゃ税シナリオを考慮して最適化された規範パラメータのセットを見つけるために、いくつかの進化的アルゴリズムが用いられた。
結果は異なる視点から分析され、選択された進化アルゴリズムが解に与える影響と、それらの優先順位付け時の値間の関係を理解することの重要性を示す。
関連論文リスト
- Preference-Conditioned Gradient Variations for Multi-Objective Quality-Diversity [7.799824794686343]
優先条件付きポリシー段階突然変異を用いた多目的品質多様性アルゴリズムを提案する。
提案手法は,新たに提案した疎度測定値により,よりスムーズなトレードオフを実現する。
この性能は、従来の方法に比べて計算ストレージコストが低い。
論文 参考訳(メタデータ) (2024-11-19T11:50:03Z) - Comparative Analysis of Indicators for Multiobjective Diversity Optimization [0.2144088660722956]
我々は,多目的の指標に基づく進化アルゴリズム(IBEA)の観点から,多様な多様性指標について論じる。
種の単調性など,これらの指標の理論的,計算的,実用的性質について検討する。
我々は、Riesz s-Energy Subset Selection ProblemのNP-hardnessの証明を含む新しい定理を提案する。
論文 参考訳(メタデータ) (2024-10-24T16:40:36Z) - Multi-Objective GFlowNets [59.16787189214784]
本稿では,多目的最適化の文脈において,多様な候補を生成する問題について検討する。
薬物発見やマテリアルデザインといった機械学習の多くの応用において、目標は、競合する可能性のある目標のセットを同時に最適化する候補を生成することである。
GFlowNetsをベースとした多目的GFlowNets(MOGFNs)を提案する。
論文 参考訳(メタデータ) (2022-10-23T16:15:36Z) - Faster Last-iterate Convergence of Policy Optimization in Zero-Sum
Markov Games [63.60117916422867]
本稿では,対戦型マルチエージェントRLの最も基本的な設定,すなわち2プレーヤゼロサムマルコフゲームに焦点を当てる。
両エージェントから対称更新を施した単一ループポリシー最適化手法を提案し,この手法はエントロピー規則化楽観的乗算重み更新法(OMWU)によって更新される。
我々の収束結果は、最もよく知られた複雑性を改善し、競合するマルコフゲームにおけるポリシー最適化をよりよく理解する。
論文 参考訳(メタデータ) (2022-10-03T16:05:43Z) - Multi-Objective Quality Diversity Optimization [2.4608515808275455]
MOME(Multi-Objective MAP-Elites)の多目的設定におけるMAP-Elitesアルゴリズムの拡張を提案する。
すなわち、MAP-Elitesグリッドアルゴリズムから受け継いだ多様性と、多目的最適化の強みを組み合わせる。
本手法は,標準的な最適化問題からロボットシミュレーションまで,いくつかのタスクで評価する。
論文 参考訳(メタデータ) (2022-02-07T10:48:28Z) - Choosing the Best of Both Worlds: Diverse and Novel Recommendations
through Multi-Objective Reinforcement Learning [68.45370492516531]
本稿では,Recommender Systems (RS) 設定のための拡張多目的強化学習(SMORL)を紹介する。
SMORLエージェントは、標準レコメンデーションモデルを拡張し、RLレイヤーを追加し、3つの主要な目的(正確性、多様性、新しいレコメンデーション)を同時に満たすように強制する。
実世界の2つのデータセットに対する実験結果から,集約的多様性の顕著な増加,精度の適度な向上,レコメンデーションの反復性の低下,および相補的目的としての多様性と新規性の強化の重要性が示された。
論文 参考訳(メタデータ) (2021-10-28T13:22:45Z) - Result Diversification by Multi-objective Evolutionary Algorithms with
Theoretical Guarantees [94.72461292387146]
両目的探索問題として結果の多様化問題を再構成し,多目的進化アルゴリズム(EA)を用いて解くことを提案する。
GSEMOが最適時間近似比1/2$を達成できることを理論的に証明する。
目的関数が動的に変化すると、GSEMOはこの近似比をランニングタイムで維持することができ、Borodinらによって提案されたオープンな問題に対処する。
論文 参考訳(メタデータ) (2021-10-18T14:00:22Z) - Batched Data-Driven Evolutionary Multi-Objective Optimization Based on
Manifold Interpolation [6.560512252982714]
バッチ化されたデータ駆動型進化的多目的最適化を実現するためのフレームワークを提案する。
オフザシェルフ進化的多目的最適化アルゴリズムがプラグイン方式で適用できるのは、非常に一般的である。
提案するフレームワークは, より高速な収束と各種PF形状に対する強いレジリエンスを特徴とする。
論文 参考訳(メタデータ) (2021-09-12T23:54:26Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - Permutation Invariant Policy Optimization for Mean-Field Multi-Agent
Reinforcement Learning: A Principled Approach [128.62787284435007]
本稿では,平均場近似ポリシ最適化(MF-PPO)アルゴリズムを提案する。
我々は,MF-PPOが収束のサブ線形速度で世界的最適政策を達成することを証明した。
特に、置換不変ニューラルアーキテクチャによって引き起こされる誘導バイアスは、MF-PPOが既存の競合より優れていることを示す。
論文 参考訳(メタデータ) (2021-05-18T04:35:41Z) - Niching Diversity Estimation for Multi-modal Multi-objective
Optimization [9.584279193016522]
ニッチは進化的多目的最適化において重要かつ広く用いられている手法である。
MMOPでは、対象空間の解は決定空間に複数の逆像を持つことができ、これは等価解と呼ばれる。
MMOPの処理において、標準多様性推定器をより効率的にするために、一般的なニチング機構を提案する。
論文 参考訳(メタデータ) (2021-01-31T05:23:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。