論文の概要: Adapting Static Fairness to Sequential Decision-Making: Bias Mitigation Strategies towards Equal Long-term Benefit Rate
- arxiv url: http://arxiv.org/abs/2309.03426v2
- Date: Tue, 28 May 2024 15:55:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-29 12:08:44.353642
- Title: Adapting Static Fairness to Sequential Decision-Making: Bias Mitigation Strategies towards Equal Long-term Benefit Rate
- Title(参考訳): 逐次意思決定への静的フェアネスの適応--バイアス緩和戦略による長期利益率の平等化
- Authors: Yuancheng Xu, Chenghao Deng, Yanchao Sun, Ruijie Zheng, Xiyao Wang, Jieyu Zhao, Furong Huang,
- Abstract要約: 逐次意思決定におけるバイアスに対処するため,Equal Long-term Benefit Rate (ELBERT) という長期公正性の概念を導入する。
ELBERTは、以前の長期公正の概念に見られる時間的差別問題に効果的に対処する。
ELBERT-POは高い有効性を維持しながらバイアスを著しく減少させることを示した。
- 参考スコア(独自算出の注目度): 41.51680686036846
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decisions made by machine learning models can have lasting impacts, making long-term fairness a critical consideration. It has been observed that ignoring the long-term effect and directly applying fairness criterion in static settings can actually worsen bias over time. To address biases in sequential decision-making, we introduce a long-term fairness concept named Equal Long-term Benefit Rate (ELBERT). This concept is seamlessly integrated into a Markov Decision Process (MDP) to consider the future effects of actions on long-term fairness, thus providing a unified framework for fair sequential decision-making problems. ELBERT effectively addresses the temporal discrimination issues found in previous long-term fairness notions. Additionally, we demonstrate that the policy gradient of Long-term Benefit Rate can be analytically simplified to standard policy gradients. This simplification makes conventional policy optimization methods viable for reducing bias, leading to our bias mitigation approach ELBERT-PO. Extensive experiments across various diverse sequential decision-making environments consistently reveal that ELBERT-PO significantly diminishes bias while maintaining high utility. Code is available at https://github.com/umd-huang-lab/ELBERT.
- Abstract(参考訳): 機械学習モデルによる決定は、持続的な影響を持つ可能性があるため、長期的な公正性は重要な考慮事項である。
長期的効果を無視して、静的な設定で直接公正性基準を適用すると、時間とともにバイアスが悪化する可能性があることが観察されている。
逐次意思決定におけるバイアスに対処するため、Equal Long-term Benefit Rate (ELBERT)という長期的な公正性の概念を導入する。
この概念はマルコフ決定プロセス(MDP)にシームレスに統合され、長期的公正性に対する行動の今後の影響を考慮し、公平な意思決定問題に対する統一的な枠組みを提供する。
ELBERTは、以前の長期公正の概念に見られる時間的差別問題に効果的に対処する。
さらに、長期利益率の政策勾配を標準政策勾配に解析的に単純化できることを実証する。
この単純化により、従来の政策最適化手法がバイアス低減に有効となり、我々のバイアス軽減アプローチであるELBERT-POに繋がる。
多様なシーケンシャルな意思決定環境における広範囲な実験により、ELBERT-POは高い実用性を維持しながらバイアスを著しく減少させることが明らかとなった。
コードはhttps://github.com/umd-huang-lab/ELBERT.comで入手できる。
関連論文リスト
- Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Policy Learning for Balancing Short-Term and Long-Term Rewards [11.859587700058235]
本稿では,長期的成果の欠落を許容する最適政策を学習するための新しい枠組みを定式化する。
短期的な成果は、関連する場合、長期的な報酬バランスの推定能力の向上に寄与することを示す。
論文 参考訳(メタデータ) (2024-05-06T10:09:35Z) - Equal Opportunity of Coverage in Fair Regression [50.76908018786335]
我々は、予測の不確実性の下で公正な機械学習(ML)を研究し、信頼性と信頼性のある意思決定を可能にする。
本研究は,(1)類似した結果の異なる集団に対するカバー率が近いこと,(2)人口全体のカバー率が一定水準にあること,の2つの特性を達成することを目的としたカバーの平等機会(EOC)を提案する。
論文 参考訳(メタデータ) (2023-11-03T21:19:59Z) - Policy Optimization with Advantage Regularization for Long-Term Fairness
in Decision Systems [14.095401339355677]
長期的な公正性は,学習に基づく意思決定システムの設計と展開において重要な要素である。
近年の研究では,マルコフ決定プロセス(MDP)を用いて意思決定を長期的公正性要件で定式化する手法が提案されている。
深層強化学習による政策最適化手法は、より厳密な意思決定ポリシーを見つけるのに有効であることを示す。
論文 参考訳(メタデータ) (2022-10-22T20:41:36Z) - Enforcing Delayed-Impact Fairness Guarantees [21.368958668652652]
ELFは, 長期的, 遅延的, 影響の観点から, 信頼性の高い公正性を保証する最初の分類アルゴリズムである。
提案アルゴリズムは, 長期不公平を軽減できることを示す。
論文 参考訳(メタデータ) (2022-08-24T19:14:56Z) - Achieving Long-Term Fairness in Sequential Decision Making [9.046461405943502]
本稿では,長期的公正な意思決定を実現するための枠組みを提案する。
我々は,長期的公正度を測定するための定量的ツールとして,時間ラベル付き因果グラフに対する経路特異的な効果を考察した。
論文 参考訳(メタデータ) (2022-04-04T20:05:44Z) - State-Visitation Fairness in Average-Reward MDPs [5.190207094732672]
我々は,時間的拡大した意思決定,特にマルコフ決定プロセス(mdps)を定式化した意思決定場面における公平性について検討する。
提案する公平性の概念は,各州の長期訪問頻度が指定された割合以上であることを保証する。
提案手法は,予測平均逆方向と長期状態視周波数の同時近似を保証する。
論文 参考訳(メタデータ) (2021-02-14T10:20:53Z) - Provably Good Batch Reinforcement Learning Without Great Exploration [51.51462608429621]
バッチ強化学習(RL)は、RLアルゴリズムを多くの高利得タスクに適用するために重要である。
最近のアルゴリズムは将来性を示しているが、期待された結果に対して過度に楽観的である。
より保守的な更新を行うため、ベルマンの最適性と評価のバックアップに小さな修正を加えることで、はるかに強力な保証が得られることを示す。
論文 参考訳(メタデータ) (2020-07-16T09:25:54Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。