論文の概要: Fairness-Aware Reinforcement Learning (FAReL): A Framework for Transparent and Balanced Sequential Decision-Making
- arxiv url: http://arxiv.org/abs/2509.22232v1
- Date: Fri, 26 Sep 2025 11:42:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.401314
- Title: Fairness-Aware Reinforcement Learning (FAReL): A Framework for Transparent and Balanced Sequential Decision-Making
- Title(参考訳): Fairness-Aware Reinforcement Learning (FAReL):透明かつバランスの取れたシークエンシャル意思決定のためのフレームワーク
- Authors: Alexandra Cimpean, Nicole Orzan, Catholijn Jonker, Pieter Libin, Ann Nowé,
- Abstract要約: 実世界のシーケンシャルな決定問題の等価性は、公平性を意識した方法で実施することができる。
複数のトレードオフを探索できるフレームワークを提案する。
フレームワークは複数のシナリオでより公平なポリシーを学習し、パフォーマンスの報酬をわずかに損なうだけであることを示す。
- 参考スコア(独自算出の注目度): 41.53741129864172
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Equity in real-world sequential decision problems can be enforced using fairness-aware methods. Therefore, we require algorithms that can make suitable and transparent trade-offs between performance and the desired fairness notions. As the desired performance-fairness trade-off is hard to specify a priori, we propose a framework where multiple trade-offs can be explored. Insights provided by the reinforcement learning algorithm regarding the obtainable performance-fairness trade-offs can then guide stakeholders in selecting the most appropriate policy. To capture fairness, we propose an extended Markov decision process, $f$MDP, that explicitly encodes individuals and groups. Given this $f$MDP, we formalise fairness notions in the context of sequential decision problems and formulate a fairness framework that computes fairness measures over time. We evaluate our framework in two scenarios with distinct fairness requirements: job hiring, where strong teams must be composed while treating applicants equally, and fraud detection, where fraudulent transactions must be detected while ensuring the burden on customers is fairly distributed. We show that our framework learns policies that are more fair across multiple scenarios, with only minor loss in performance reward. Moreover, we observe that group and individual fairness notions do not necessarily imply one another, highlighting the benefit of our framework in settings where both fairness types are desired. Finally, we provide guidelines on how to apply this framework across different problem settings.
- Abstract(参考訳): 実世界のシーケンシャルな決定問題の等価性は、公平性を意識した方法で実施することができる。
したがって、性能と所望の公平性の概念を適切にかつ透過的にトレードオフできるアルゴリズムが必要である。
所望のパフォーマンス-公正トレードオフは優先順位を特定するのが難しいため、複数のトレードオフを探索できるフレームワークを提案する。
得られたパフォーマンス・フェアネスのトレードオフに関する強化学習アルゴリズムによって提供される洞察は、ステークホルダーが最も適切なポリシーを選択する際のガイドとなる。
公平性を捉えるために、個人やグループを明示的に符号化する拡張マルコフ決定プロセスである$f$MDPを提案する。
この$f$MDP を考えると、逐次決定問題の文脈で公平性の概念を定式化し、時間とともに公正度を計算できる公平性フレームワークを定式化する。
当社の枠組みは,求職者を平等に扱いながら強いチームを編成しなければならない雇用雇用と,顧客への負担を十分に分散しつつ不正取引を検出する不正検出の2つのシナリオで評価されている。
フレームワークは複数のシナリオでより公平なポリシーを学習し、パフォーマンスの報酬をわずかに損なうだけであることを示す。
さらに、グループと個人の公正の概念が必ずしも相互に意味を示さないことを観察し、両フェアネスのタイプが望まれる設定において、我々のフレームワークの利点を強調した。
最後に、異なる問題設定にまたがってこのフレームワークを適用する方法についてのガイドラインを提供します。
関連論文リスト
- Testing Fairness with Utility Tradeoffs: A Wasserstein Projection Approach [6.378410364292642]
本稿では,近似的公正性と有効性を共同で評価する統計的仮説テストフレームワークを提案する。
当社のフレームワークは,人口統計学の同等性基準に基づいて構築され,潜在的成果フレームワークに動機づけられた実用性尺度が組み込まれている。
このテストは、計算可能で、解釈可能で、機械学習モデルに広く適用でき、より一般的な設定に拡張可能であることを示す。
論文 参考訳(メタデータ) (2025-05-16T20:29:06Z) - Finite-Sample and Distribution-Free Fair Classification: Optimal Trade-off Between Excess Risk and Fairness, and the Cost of Group-Blindness [14.421493372559762]
グループフェアネス制約下の二項分類におけるアルゴリズムフェアネスとグループブレンドネスの強制効果を定量化する。
制御された過剰リスクを伴う分布自由かつ有限サンプルフェアネスを保証するフェア分類のための統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-21T20:04:17Z) - Peer-induced Fairness: A Causal Approach for Algorithmic Fairness Auditing [0.0]
欧州連合の人工知能法は2024年8月1日に施行された。
リスクの高いAIアプリケーションは、厳格な透明性と公正な基準に従わなければならない。
本稿では,対実的公正性とピア比較戦略の強みを組み合わせた新しい枠組みを提案する。
論文 参考訳(メタデータ) (2024-08-05T15:35:34Z) - FFB: A Fair Fairness Benchmark for In-Processing Group Fairness Methods [84.1077756698332]
本稿では,グループフェアネス手法のベンチマークフレームワークであるFair Fairness Benchmark(textsfFFB)を紹介する。
グループフェアネスの異なる概念を確実にするための最先端手法を包括的に分析する。
論文 参考訳(メタデータ) (2023-06-15T19:51:28Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。