論文の概要: Fairness over Equality: Correcting Social Incentives in Asymmetric Sequential Social Dilemmas
- arxiv url: http://arxiv.org/abs/2602.15407v1
- Date: Tue, 17 Feb 2026 07:31:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:18.012482
- Title: Fairness over Equality: Correcting Social Incentives in Asymmetric Sequential Social Dilemmas
- Title(参考訳): 平等に対する公正性:非対称な逐次社会ジレンマにおける社会的インセンティブの修正
- Authors: Alper Demir, Hüseyin Aydın, Kale-ab Abebe Tessera, David Abel, Stefano V. Albrecht,
- Abstract要約: 逐次社会ジレンマ(SSD)は、個人のインセンティブが集団福祉と対立するときに、協力がどのように現れるかを研究するための重要な枠組みを提供する。
既存の方法の多くは、エージェントがジレンマにおいて同一のインセンティブに直面し、公正性を評価するために他のエージェントに関するグローバル情報への継続的なアクセスを必要とすると仮定している。
我々は、よく知られたSSD環境の非対称な変種を導入し、エージェント間の自然差が協調力学にどのように影響するかを検討する。
- 参考スコア(独自算出の注目度): 14.346045345458416
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sequential Social Dilemmas (SSDs) provide a key framework for studying how cooperation emerges when individual incentives conflict with collective welfare. In Multi-Agent Reinforcement Learning, these problems are often addressed by incorporating intrinsic drives that encourage prosocial or fair behavior. However, most existing methods assume that agents face identical incentives in the dilemma and require continuous access to global information about other agents to assess fairness. In this work, we introduce asymmetric variants of well-known SSD environments and examine how natural differences between agents influence cooperation dynamics. Our findings reveal that existing fairness-based methods struggle to adapt under asymmetric conditions by enforcing raw equality that wrongfully incentivize defection. To address this, we propose three modifications: (i) redefining fairness by accounting for agents' reward ranges, (ii) introducing an agent-based weighting mechanism to better handle inherent asymmetries, and (iii) localizing social feedback to make the methods effective under partial observability without requiring global information sharing. Experimental results show that in asymmetric scenarios, our method fosters faster emergence of cooperative policies compared to existing approaches, without sacrificing scalability or practicality.
- Abstract(参考訳): 逐次社会ジレンマ(SSD)は、個人のインセンティブが集団福祉と対立するときに、協力がどのように現れるかを研究するための重要な枠組みを提供する。
マルチエージェント強化学習(Multi-Agent Reinforcement Learning)において、これらの問題は、社会的または公正な行動を促進する本質的なドライブを組み込むことによって解決されることが多い。
しかし、既存のほとんどの手法では、エージェントはジレンマにおいて同一のインセンティブに直面し、公正性を評価するために他のエージェントに関するグローバル情報に継続的にアクセスする必要があると仮定している。
本研究では、よく知られたSSD環境の非対称な変種を導入し、エージェント間の自然差が協調力学にどのように影響するかを検討する。
その結果, 既往の公平性に基づく手法は, 欠陥を誤った動機づける生の平等を強制することによって, 非対称条件下での適応に苦慮していることが明らかとなった。
この問題に対処するため,我々は3つの修正案を提案する。
一 代理人の報酬範囲を勘案して公正を再定義すること。
二 固有の非対称性をよりよく扱えるように、エージェントベースの重み付け機構を導入すること。
三 グローバルな情報共有を必要とせず、部分的な可観測性の下での手法を効果的にするための社会的フィードバックの地域化。
実験の結果,非対称なシナリオでは,従来の手法に比べて協調政策の出現が早くなり,スケーラビリティや実用性が損なわれることが示唆された。
関連論文リスト
- Evaluating Generalization Capabilities of LLM-Based Agents in Mixed-Motive Scenarios Using Concordia [100.74015791021044]
大規模言語モデル(LLM)エージェントは、社会的相互作用の素晴らしい能力を実証している。
既存の評価手法は、これらの能力がいかに新しい社会的状況に一般化するかを測ることに失敗する。
我々は,NeurIPS 2024 Concordia Contestで,エージェントが相互利得を達成する能力について評価した経験的結果を示す。
論文 参考訳(メタデータ) (2025-12-03T00:11:05Z) - From Competition to Coordination: Market Making as a Scalable Framework for Safe and Aligned Multi-Agent LLM Systems [5.165179548592513]
マルチエージェント大規模言語モデル(LLM)コーディネーションのための市場形成フレームワークを提案する。
この設定では、各エージェントは市場参加者として行動し、確率的信念を更新し、取引し、共有され、真実に満ちた結果へと収束する。
実証的に、本手法は、事実推論、倫理的判断、コモンセンス推論タスクにまたがって評価する。
論文 参考訳(メタデータ) (2025-11-18T16:47:15Z) - A General Incentives-Based Framework for Fairness in Multi-agent Resource Allocation [4.930376365020355]
GIFF(General Incentives-based Framework for Fairness)を紹介する。
GIFFは、標準値関数から公平な意思決定を推測する、公平なマルチエージェントリソース割り当てのための新しいアプローチである。
論文 参考訳(メタデータ) (2025-10-30T17:37:51Z) - Belief-Calibrated Multi-Agent Consensus Seeking for Complex NLP Tasks [45.14284473132228]
コンセンサス安定性を最大化する最適協力者を選択するための理論的枠組みを提供する。
この定理に基づいて,安定したコンセンサスを促進するためのBCCS(Belief-Calibrated Consensus Seeking)フレームワークを提案する。
MATHおよびMMLUベンチマークデータセットの実験結果から、提案したBCCSフレームワークが既存の最高の結果を上回っていることが示された。
論文 参考訳(メタデータ) (2025-10-07T17:53:34Z) - Fairness in Agentic AI: A Unified Framework for Ethical and Equitable Multi-Agent System [0.0]
本稿では,公正性をエージェント相互作用の動的,創発的特性として扱う新しい枠組みを提案する。
この枠組みは、公正な制約、バイアス軽減戦略、および自律的なエージェント行動と社会的価値を整合させるインセンティブメカニズムを統合する。
論文 参考訳(メタデータ) (2025-02-11T04:42:00Z) - Learning to Balance Altruism and Self-interest Based on Empathy in Mixed-Motive Games [47.8980880888222]
マルチエージェントのシナリオは、しばしば混合モチベーションを伴い、潜在的な搾取に対する自己保護が可能な利他的エージェントを要求する。
共感に基づくアルトリズムと自己利益のバランスをとるためのLASE学習を提案する。
LASEはその報酬の一部を共同プレイヤにギフトとして割り当て、このアロケーションは社会的関係に基づいて動的に適応する。
論文 参考訳(メタデータ) (2024-10-10T12:30:56Z) - Normative Disagreement as a Challenge for Cooperative AI [56.34005280792013]
典型的な協調誘導学習アルゴリズムは、問題の解決に協力することができないと論じる。
我々は,ノルム適応政策のクラスを開発し,これらが協調性を著しく向上させることを示す実験を行った。
論文 参考訳(メタデータ) (2021-11-27T11:37:42Z) - End-to-End Learning and Intervention in Games [60.41921763076017]
ゲームにおける学習と介入のための統一的なフレームワークを提供する。
明示的および暗黙的な区別に基づく2つのアプローチを提案する。
分析結果は、実世界のいくつかの問題を用いて検証される。
論文 参考訳(メタデータ) (2020-10-26T18:39:32Z) - Efficient Empowerment Estimation for Unsupervised Stabilization [75.32013242448151]
エンパワーメント原理は 直立位置での 力学系の教師なし安定化を可能にする
本稿では,ガウスチャネルとして動的システムのトレーニング可能な表現に基づく代替解を提案する。
提案手法は, サンプルの複雑さが低く, 訓練時より安定であり, エンパワーメント機能の本質的特性を有し, 画像からエンパワーメントを推定できることを示す。
論文 参考訳(メタデータ) (2020-07-14T21:10:16Z) - Calibration of Shared Equilibria in General Sum Partially Observable
Markov Games [15.572157454411533]
我々は、異なるタイプのエージェントが単一のポリシーネットワークを共有する、一般的な可観測マルコフゲームを考える。
本稿は,そのようなエージェントが到達した平衡を形式的に理解すること,および,そのような平衡の創発的な現象を現実のターゲットに合わせることを目的としている。
論文 参考訳(メタデータ) (2020-06-23T15:14:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。