論文の概要: Fairness in Reinforcement Learning with Bisimulation Metrics
- arxiv url: http://arxiv.org/abs/2412.17123v1
- Date: Sun, 22 Dec 2024 18:23:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 16:01:19.657046
- Title: Fairness in Reinforcement Learning with Bisimulation Metrics
- Title(参考訳): Bisimulation Metricsを用いた強化学習の公正性
- Authors: Sahand Rezaei-Shoshtari, Hanna Yurchyk, Scott Fujimoto, Doina Precup, David Meger,
- Abstract要約: 公平さを考慮せずに報酬を最大化することにより、AIエージェントはグループや個人の扱いに格差を導入することができる。
そこで本研究では,バイシミュレーションのメトリクスを利用して報酬関数と観測ダイナミクスを学習する手法を提案する。
- 参考スコア(独自算出の注目度): 45.674943127750595
- License:
- Abstract: Ensuring long-term fairness is crucial when developing automated decision making systems, specifically in dynamic and sequential environments. By maximizing their reward without consideration of fairness, AI agents can introduce disparities in their treatment of groups or individuals. In this paper, we establish the connection between bisimulation metrics and group fairness in reinforcement learning. We propose a novel approach that leverages bisimulation metrics to learn reward functions and observation dynamics, ensuring that learners treat groups fairly while reflecting the original problem. We demonstrate the effectiveness of our method in addressing disparities in sequential decision making problems through empirical evaluation on a standard fairness benchmark consisting of lending and college admission scenarios.
- Abstract(参考訳): 特に動的かつシーケンシャルな環境で、自動意思決定システムを開発する際には、長期的な公正性の確保が不可欠である。
公平さを考慮せずに報酬を最大化することにより、AIエージェントはグループや個人の扱いに格差を導入することができる。
本稿では,強化学習におけるバイシミュレート指標とグループフェアネスの関連性を確立する。
そこで本研究では,バイシミュレーションのメトリクスを利用して報酬関数と観察ダイナミクスを学習し,学習者が元の問題を反映しながらグループを公平に扱うことを保証する手法を提案する。
本手法の有効性を,貸付・大学入校シナリオからなる標準公正度ベンチマークで実証評価し,逐次意思決定問題における不一致に対処する方法の有効性を実証した。
関連論文リスト
- Striking a Balance in Fairness for Dynamic Systems Through Reinforcement
Learning [6.814499629376316]
逐次決定を行う動的システムの公平性について検討する。
本稿では,多種多様な公平な考察と強化学習を統合するためのアルゴリズムフレームワークを提案する。
3つのケーススタディにより,従来の公正観念,長期公正観,実用性とのバランスがとれることが示された。
論文 参考訳(メタデータ) (2024-01-12T01:29:26Z) - Equal Confusion Fairness: Measuring Group-Based Disparities in Automated
Decision Systems [5.076419064097733]
本稿では,公正度の自動判定システムをチェックするための等混乱公正度試験と,不公平度を定量化するための新しい混乱パリティ誤差を提案する。
全体として、ここで提供される方法とメトリクスは、より広範な説明責任評価の一環として、自動決定システムの公正性を評価することができる。
論文 参考訳(メタデータ) (2023-07-02T04:44:19Z) - Counterpart Fairness -- Addressing Systematic between-group Differences in Fairness Evaluation [17.495053606192375]
機械学習を用いて意思決定を行う場合、アルゴリズム上の決定が公平であり、特定の個人やグループに対して差別的でないことを保証することが重要である。
既存のグループフェアネス手法は、人種や性別などの保護された変数によって規定されたグループ間で平等な結果を保証することを目的としている。
グループ間の系統的な差異が結果に重要な役割を果たす場合、これらの手法は非保護変数の影響を見逃す可能性がある。
論文 参考訳(メタデータ) (2023-05-29T15:41:12Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Increasing Fairness via Combination with Learning Guarantees [8.314000998551865]
個人と集団の公平性の両方を反映する差別的リスクという,公正性の品質指標を提案する。
また,一階と二階のオラクル境界を提案し,理論学習保証とアンサンブルの組み合わせにより公平性を高めることができることを示した。
論文 参考訳(メタデータ) (2023-01-25T20:31:06Z) - Reinforcement Learning with Stepwise Fairness Constraints [50.538878453547966]
本稿では,段階的公正性制約を伴う強化学習について紹介する。
我々は、ポリシーの最適性と公正性違反に関して、強力な理論的保証を持つ学習アルゴリズムを提供する。
論文 参考訳(メタデータ) (2022-11-08T04:06:23Z) - Measuring and signing fairness as performance under multiple stakeholder
distributions [39.54243229669015]
学習システムの公正度を測定するための最良のツールは、数学的ワンライナーとしてカプセル化された剛性公正度メトリクスである。
本稿では, フェアネス指標の定式化から, それらが計算される例の分布の算出に焦点を移すことを提案する。
ストレステストのための完全な実装ガイドラインを提供し、このフレームワークの利点と欠点の両方を説明します。
論文 参考訳(メタデータ) (2022-07-20T15:10:02Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。