論文の概要: Altruism and Fair Objective in Mixed-Motive Markov games
- arxiv url: http://arxiv.org/abs/2602.08389v1
- Date: Mon, 09 Feb 2026 08:40:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.131622
- Title: Altruism and Fair Objective in Mixed-Motive Markov games
- Title(参考訳): 混合運動マルコフゲームにおけるaltruismとfair Objective
- Authors: Yao-hua Franck Xu, Tayeb Lemlouma, Arnaud Braud, Jean-Marie Bonnin,
- Abstract要約: ゲーム理論において、社会的ジレンマは、個人の関心と集合的な結果の間のこの二分法を必要とする。
本稿では,標準実用目的を比例フェアネスに置き換えることで,より公平な協力を促進する新しい枠組みを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cooperation is fundamental for society's viability, as it enables the emergence of structure within heterogeneous groups that seek collective well-being. However, individuals are inclined to defect in order to benefit from the group's cooperation without contributing the associated costs, thus leading to unfair situations. In game theory, social dilemmas entail this dichotomy between individual interest and collective outcome. The most dominant approach to multi-agent cooperation is the utilitarian welfare which can produce efficient highly inequitable outcomes. This paper proposes a novel framework to foster fairer cooperation by replacing the standard utilitarian objective with Proportional Fairness. We introduce a fair altruistic utility for each agent, defined on the individual log-payoff space and derive the analytical conditions required to ensure cooperation in classic social dilemmas. We then extend this framework to sequential settings by defining a Fair Markov Game and deriving novel fair Actor-Critic algorithms to learn fair policies. Finally, we evaluate our method in various social dilemma environments.
- Abstract(参考訳): 協力は、集団的幸福を求める異種集団における構造の出現を可能にするため、社会の生存に基本的なものである。
しかし、個人は、関連するコストに貢献することなく、グループの協力の恩恵を受けるために、欠陥を起こす傾向にあり、不公平な状況に陥る。
ゲーム理論において、社会的ジレンマは、個人の関心と集合的な結果の間のこの二分法を必要とする。
マルチエージェント協力に対する最も支配的なアプローチは、効率のよい非平等な結果を生み出すための実用的福祉である。
本稿では,標準実用目的を比例フェアネスに置き換えることで,より公平な協力を促進する新しい枠組みを提案する。
我々は,個々のログペイオフ空間に定義されたエージェントに対して公正な利他的ユーティリティを導入し,古典的社会的ジレンマにおける協調を保証するために必要な分析条件を導出する。
次に、フェアマルコフゲームを定義し、フェアポリシーを学ぶための新しいフェアアクター・クリティカルアルゴリズムを導出することにより、このフレームワークをシーケンシャルな設定に拡張する。
最後に,様々な社会的ジレンマ環境における手法の評価を行った。
関連論文リスト
- Toward a Sustainable Federated Learning Ecosystem: A Practical Least Core Mechanism for Payoff Allocation [71.86087908416255]
最小コア(LC)概念に基づく配当フレームワークを提案する。
従来の方法とは異なり、LCは最大の不満を最小限に抑えてフェデレーションの凝集を優先する。
統合侵入検知におけるケーススタディは、我々のメカニズムが重要な貢献者や戦略的提携を正しく識別できることを実証している。
論文 参考訳(メタデータ) (2026-02-03T11:10:50Z) - Social welfare optimisation in well-mixed and structured populations [6.45507185761727]
我々は,最大社会福祉の実現は,エージェントを望ましい協力状態に導くために必要な最小のインセンティブコストで保証されないことを示す。
その結果, 純コスト効率や協力頻度を最適化し, 最大社会福祉を最適化することで, 個人ごとのインセンティブコストに大きな差があることが判明した。
総じて, 多エージェントシステムと人間社会におけるインセンティブ設計, 政策, ベンチマークは, コストや協力頻度のプロキシターゲットよりも, 福祉中心の目標を優先すべきであることが示唆された。
論文 参考訳(メタデータ) (2025-12-08T11:27:43Z) - Achieving Collective Welfare in Multi-Agent Reinforcement Learning via Suggestion Sharing [12.167248367980449]
自己利益と集団福祉の対立は、しばしば共有福祉を達成する努力を妨げる。
この問題に対処する新しいマルチエージェント強化学習法(MARL)を提案する。
報酬、価値、ポリシーを共有する従来の協調型MARLソリューションとは異なり、エージェントがアクション提案を交換する新しいMARLアプローチを提案する。
論文 参考訳(メタデータ) (2024-12-16T19:44:44Z) - Learning to Balance Altruism and Self-interest Based on Empathy in Mixed-Motive Games [47.8980880888222]
マルチエージェントのシナリオは、しばしば混合モチベーションを伴い、潜在的な搾取に対する自己保護が可能な利他的エージェントを要求する。
共感に基づくアルトリズムと自己利益のバランスをとるためのLASE学習を提案する。
LASEはその報酬の一部を共同プレイヤにギフトとして割り当て、このアロケーションは社会的関係に基づいて動的に適応する。
論文 参考訳(メタデータ) (2024-10-10T12:30:56Z) - Learning Roles with Emergent Social Value Orientations [49.16026283952117]
本稿では、人間社会における典型的な「労働・役割の分断」のメカニズムを紹介する。
我々は、社会的価値指向(SVO)を伴う時空間的社会的ジレンマ(ISD)に対する有望な解決策を提供する。
創発的SVOによる学習ロール(RESVO)と呼ばれる新しい学習フレームワークは、役割の学習を社会的価値指向の出現に変換するために提案されている。
論文 参考訳(メタデータ) (2023-01-31T17:54:09Z) - Normative Disagreement as a Challenge for Cooperative AI [56.34005280792013]
典型的な協調誘導学習アルゴリズムは、問題の解決に協力することができないと論じる。
我々は,ノルム適応政策のクラスを開発し,これらが協調性を著しく向上させることを示す実験を行った。
論文 参考訳(メタデータ) (2021-11-27T11:37:42Z) - Balancing Rational and Other-Regarding Preferences in
Cooperative-Competitive Environments [4.705291741591329]
混合環境は利己的で社会的利益の衝突で悪名高い。
個人と社会的インセンティブのバランスをとるBAROCCOを提案します。
メタアルゴリズムは、Qラーニングとアクタークリティカルの両方のフレームワークと互換性があります。
論文 参考訳(メタデータ) (2021-02-24T14:35:32Z) - Decentralized Reinforcement Learning: Global Decision-Making via Local
Economic Transactions [80.49176924360499]
我々は、シーケンシャルな意思決定問題を解決するために、単純で専門的で自己関心のあるエージェントの社会を指示する枠組みを確立する。
我々は分散強化学習アルゴリズムのクラスを導出する。
我々は、より効率的な移動学習のための社会固有のモジュラー構造の潜在的な利点を実証する。
論文 参考訳(メタデータ) (2020-07-05T16:41:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。