論文の概要: A Mechanism for Mutual Fairness in Cooperative Games with Replicable Resources -- Extended Version
- arxiv url: http://arxiv.org/abs/2508.13960v1
- Date: Tue, 19 Aug 2025 15:53:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.998981
- Title: A Mechanism for Mutual Fairness in Cooperative Games with Replicable Resources -- Extended Version
- Title(参考訳): Replicable Resources 拡張版による協調ゲームにおける相互フェアネスのメカニズム
- Authors: Björn Filter, Ralf Möller, Özgür Lütfü Özçep,
- Abstract要約: AIの最近の進歩は、人工知能と人間のエージェントが協力してグローバルな目標を実現するエージェントシステムに焦点を当てている。
このようなシステムを設計する上での大きな課題は、安全性と人間の価値との整合性を保証することである。
協調ゲーム理論は、値関数を介して協調エージェントの有用な抽象化を提供する。
- 参考スコア(独自算出の注目度): 2.709511652792003
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The latest developments in AI focus on agentic systems where artificial and human agents cooperate to realize global goals. An example is collaborative learning, which aims to train a global model based on data from individual agents. A major challenge in designing such systems is to guarantee safety and alignment with human values, particularly a fair distribution of rewards upon achieving the global goal. Cooperative game theory offers useful abstractions of cooperating agents via value functions, which assign value to each coalition, and via reward functions. With these, the idea of fair allocation can be formalized by specifying fairness axioms and designing concrete mechanisms. Classical cooperative game theory, exemplified by the Shapley value, does not fully capture scenarios like collaborative learning, as it assumes nonreplicable resources, whereas data and models can be replicated. Infinite replicability requires a generalized notion of fairness, formalized through new axioms and mechanisms. These must address imbalances in reciprocal benefits among participants, which can lead to strategic exploitation and unfair allocations. The main contribution of this paper is a mechanism and a proof that it fulfills the property of mutual fairness, formalized by the Balanced Reciprocity Axiom. It ensures that, for every pair of players, each benefits equally from the participation of the other.
- Abstract(参考訳): AIの最近の発展は、人工知能と人間のエージェントが協力してグローバルな目標を実現するエージェントシステムに焦点を当てている。
例えばコラボレーティブラーニングは、個々のエージェントのデータに基づいてグローバルモデルをトレーニングすることを目的としている。
このようなシステムを設計する上での大きな課題は、人的価値、特にグローバルな目標を達成する上での報酬の公平な分配の安全性と整合性を保証することである。
協調ゲーム理論は、各連立に価値を割り当て、報酬関数を介して協調エージェントの有用な抽象化を提供する。
これにより、フェアネス公理を指定し、具体的なメカニズムを設計することで、フェアアロケーションの考え方を定式化することができる。
古典的協調ゲーム理論は、シェープリー値によって例示されるが、データやモデルは複製されるが、非複製不可能なリソースを前提として、協調学習のようなシナリオを完全には捉えない。
無限複製性は、新しい公理と機構によって形式化された、公正性の一般化された概念を必要とする。
これらは参加者間の相互利益の不均衡に対処し、戦略的な搾取や不公平な割り当てにつながる可能性がある。
本論文の主な貢献は、相互公正性の性質を満たすためのメカニズムと証明であり、均衡互相公理によって定式化されている。
それぞれのプレイヤーが、他のプレイヤーの参加から平等に恩恵を受けることを保証します。
関連論文リスト
- Learning to Balance Altruism and Self-interest Based on Empathy in Mixed-Motive Games [47.8980880888222]
マルチエージェントのシナリオは、しばしば混合モチベーションを伴い、潜在的な搾取に対する自己保護が可能な利他的エージェントを要求する。
共感に基づくアルトリズムと自己利益のバランスをとるためのLASE学習を提案する。
LASEはその報酬の一部を共同プレイヤにギフトとして割り当て、このアロケーションは社会的関係に基づいて動的に適応する。
論文 参考訳(メタデータ) (2024-10-10T12:30:56Z) - ALYMPICS: LLM Agents Meet Game Theory -- Exploring Strategic
Decision-Making with AI Agents [77.34720446306419]
Alympicsは、ゲーム理論の研究にLarge Language Model (LLM)エージェントを利用する、体系的なシミュレーションフレームワークである。
Alympicsは、複雑なゲーム理論の問題を研究するための汎用的なプラットフォームを作成する。
論文 参考訳(メタデータ) (2023-11-06T16:03:46Z) - Cooperation Dynamics in Multi-Agent Systems: Exploring Game-Theoretic Scenarios with Mean-Field Equilibria [0.0]
本稿では,ゲーム理論のシナリオ,すなわちIterated Prisoner's Dilemmaにおける協調を呼び起こす戦略について検討する。
既存の協調戦略は、繰り返しゲームにおけるグループ指向行動を促進する効果について分析する。
この研究は、指数関数的に増加するエージェント集団のシナリオにまで及んでいる。
論文 参考訳(メタデータ) (2023-09-28T08:57:01Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Distributional Reinforcement Learning for Multi-Dimensional Reward
Functions [91.88969237680669]
多次元分布DQN(MD3QN)を導入し、複数の報酬源からの共振分布をモデル化する。
関節分布モデリングの副産物として、MD3QNは各報酬源に対するリターンのランダム性を捉えることができる。
実験では,リッチな相関型報酬関数を持つ環境下での連立戻り分布を精度良くモデル化した。
論文 参考訳(メタデータ) (2021-10-26T11:24:23Z) - Cooperation and Reputation Dynamics with Reinforcement Learning [6.219565750197311]
私達は信頼および協同を確立する方法として評判がいかに使用されるか示します。
好ましくない平衡への収束を緩和する2つのメカニズムを提案する。
この結果が進化ゲーム理論の文献とどのように関係しているかを示す。
論文 参考訳(メタデータ) (2021-02-15T12:48:56Z) - Decentralized Reinforcement Learning: Global Decision-Making via Local
Economic Transactions [80.49176924360499]
我々は、シーケンシャルな意思決定問題を解決するために、単純で専門的で自己関心のあるエージェントの社会を指示する枠組みを確立する。
我々は分散強化学習アルゴリズムのクラスを導出する。
我々は、より効率的な移動学習のための社会固有のモジュラー構造の潜在的な利点を実証する。
論文 参考訳(メタデータ) (2020-07-05T16:41:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。