論文の概要: A General Incentives-Based Framework for Fairness in Multi-agent Resource Allocation
- arxiv url: http://arxiv.org/abs/2510.26740v1
- Date: Thu, 30 Oct 2025 17:37:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.944892
- Title: A General Incentives-Based Framework for Fairness in Multi-agent Resource Allocation
- Title(参考訳): 多エージェント資源配置における公平性のためのインセンティブに基づく汎用フレームワーク
- Authors: Ashwin Kumar, William Yeoh,
- Abstract要約: GIFF(General Incentives-based Framework for Fairness)を紹介する。
GIFFは、標準値関数から公平な意思決定を推測する、公平なマルチエージェントリソース割り当てのための新しいアプローチである。
- 参考スコア(独自算出の注目度): 4.930376365020355
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce the General Incentives-based Framework for Fairness (GIFF), a novel approach for fair multi-agent resource allocation that infers fair decision-making from standard value functions. In resource-constrained settings, agents optimizing for efficiency often create inequitable outcomes. Our approach leverages the action-value (Q-)function to balance efficiency and fairness without requiring additional training. Specifically, our method computes a local fairness gain for each action and introduces a counterfactual advantage correction term to discourage over-allocation to already well-off agents. This approach is formalized within a centralized control setting, where an arbitrator uses the GIFF-modified Q-values to solve an allocation problem. Empirical evaluations across diverse domains, including dynamic ridesharing, homelessness prevention, and a complex job allocation task-demonstrate that our framework consistently outperforms strong baselines and can discover far-sighted, equitable policies. The framework's effectiveness is supported by a theoretical foundation; we prove its fairness surrogate is a principled lower bound on the true fairness improvement and that its trade-off parameter offers monotonic tuning. Our findings establish GIFF as a robust and principled framework for leveraging standard reinforcement learning components to achieve more equitable outcomes in complex multi-agent systems.
- Abstract(参考訳): 我々は、標準値関数から公正な意思決定を推測する、公正なマルチエージェントリソース割り当てのための新しいアプローチである、General Incentives-based Framework for Fairness (GIFF)を紹介する。
リソース制限された設定では、効率を最適化するエージェントは、しばしば不平等な結果を生み出す。
提案手法では, アクション値(Q-)関数を付加的なトレーニングを必要とせず, 効率と公平性のバランスをとる。
具体的には,各行動に対する局所的公平性ゲインを算出し,すでに良好であるエージェントへの過剰配置を回避するために,対実的優位補正項を導入する。
この手法は、調停者がGIFF修飾Q値を用いて割当問題を解く集中制御設定で定式化される。
ダイナミックなライドシェアリング、ホームレス防止、複雑な仕事割り当ての実証など、さまざまな分野における実証的な評価は、我々のフレームワークが一貫して強力なベースラインを上回り、遠目で公平な政策を発見することができることを実証している。
フレームワークの有効性は理論的な基礎によって支持されており、その公平性サロゲートは真の公正性の改善の原則的下限であり、そのトレードオフパラメータが単調なチューニングを提供することを証明している。
以上の結果から, GIFFは, 複雑なマルチエージェントシステムにおいて, より公平な結果を得るために, 標準強化学習コンポーネントを活用するための, 堅牢で原則化されたフレームワークとして確立されている。
関連論文リスト
- Fairness-Aware Reinforcement Learning (FAReL): A Framework for Transparent and Balanced Sequential Decision-Making [41.53741129864172]
実世界のシーケンシャルな決定問題の等価性は、公平性を意識した方法で実施することができる。
複数のトレードオフを探索できるフレームワークを提案する。
フレームワークは複数のシナリオでより公平なポリシーを学習し、パフォーマンスの報酬をわずかに損なうだけであることを示す。
論文 参考訳(メタデータ) (2025-09-26T11:42:14Z) - FedFACT: A Provable Framework for Controllable Group-Fairness Calibration in Federated Learning [13.575259448363557]
我々はFedFACTという制御可能なグループフェアネス校正フレームワークを提案する。
FedFACTは、大域的および局所的公正性の制約の下でベイズ最適分類器を識別する。
複数のデータセットの実験では、FedFACTは精度とグローバルローカルフェアネスのバランスをとる上で、ベースラインを一貫して上回っている。
論文 参考訳(メタデータ) (2025-06-04T09:39:57Z) - DisCO: Reinforcing Large Reasoning Models with Discriminative Constrained Optimization [50.91849555841057]
グループ相対政策最適化は大規模推論モデル(LRM)の強化学習手法である
差別学習の原則を基礎として, LRMの強化のための新たな差別的制約付き最適化フレームワークを導入する。
DisCO は GRPO と DAPO などの改良型を著しく上回り、GRPO の7%、DAPO の6% を平均的に上回っている。
論文 参考訳(メタデータ) (2025-05-18T11:08:32Z) - Federated Fairness without Access to Sensitive Groups [12.888927461513472]
連合学習におけるグループフェアネスへの現在のアプローチは、トレーニング中に事前に定義されラベル付けされたセンシティブなグループが存在することを前提としている。
我々は、センシティブなグループや追加のラベルの事前定義された定義に依存しないグループフェアネスを保証するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-22T19:24:59Z) - Mimicking Better by Matching the Approximate Action Distribution [48.95048003354255]
そこで我々は,Imitation Learning from Observationsのための新しい,サンプル効率の高いオンライン政治アルゴリズムMAADを紹介する。
我々は、専門家のパフォーマンスを達成するためには、かなり少ないインタラクションが必要であり、現在最先端の政治手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T12:43:47Z) - Achieving Fairness in Multi-Agent Markov Decision Processes Using
Reinforcement Learning [30.605881670761853]
有限水平エピソードMDPにおける公平性を実現するための強化学習手法を提案する。
このようなアプローチは、エピソード数の観点から、サブ線形後悔を実現することを示す。
論文 参考訳(メタデータ) (2023-06-01T03:43:53Z) - Balancing Discriminability and Transferability for Source-Free Domain
Adaptation [55.143687986324935]
従来のドメイン適応(DA)技術は、ドメイン不変表現を学習することでドメイン転送性を改善することを目的としている。
ラベル付けされたソースとラベル付けされていないターゲットへの同時アクセス要件は、ソースフリーなDA設定に適さない。
そこで本研究では,原文と翻訳サンプルの混在が識別可能性と伝達可能性のトレードオフを促進することを示す新しい知見を導出する。
論文 参考訳(メタデータ) (2022-06-16T09:06:22Z) - Monotonic Improvement Guarantees under Non-stationarity for
Decentralized PPO [66.5384483339413]
我々は,MARL(Multi-Agent Reinforcement Learning)における分散政策の最適化のための新しい単調改善保証を提案する。
本研究では,訓練中のエージェント数に基づいて,独立した比率を限定することにより,信頼領域の制約を原則的に効果的に実施可能であることを示す。
論文 参考訳(メタデータ) (2022-01-31T20:39:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。