論文の概要: Equal Long-term Benefit Rate: Adapting Static Fairness Notions to
Sequential Decision Making
- arxiv url: http://arxiv.org/abs/2309.03426v1
- Date: Thu, 7 Sep 2023 01:10:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-08 14:38:22.757500
- Title: Equal Long-term Benefit Rate: Adapting Static Fairness Notions to
Sequential Decision Making
- Title(参考訳): 同等の長期利益率:静的公正通知を逐次決定に適応させる
- Authors: Yuancheng Xu, Chenghao Deng, Yanchao Sun, Ruijie Zheng, Xiyao Wang,
Jieyu Zhao, Furong Huang
- Abstract要約: ELBERT(Equal Long-term Benefit Rate)と呼ばれる長期公正性の概念を導入する。
長期利益率の政策勾配は分析的に標準政策勾配に還元できることを示す。
3つの逐次意思決定環境の実験により,ELBERT-POはバイアスを著しく低減し,高い有効性を維持することが示された。
- 参考スコア(独自算出の注目度): 43.59869705928267
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decisions made by machine learning models may have lasting impacts over time,
making long-term fairness a crucial consideration. It has been shown that when
ignoring the long-term effect, naively imposing fairness criterion in static
settings can actually exacerbate bias over time. To explicitly address biases
in sequential decision-making, recent works formulate long-term fairness
notions in Markov Decision Process (MDP) framework. They define the long-term
bias to be the sum of static bias over each time step. However, we demonstrate
that naively summing up the step-wise bias can cause a false sense of fairness
since it fails to consider the importance difference of different time steps
during transition. In this work, we introduce a long-term fairness notion
called Equal Long-term Benefit Rate (ELBERT), which explicitly considers
varying temporal importance and adapts static fairness principles to the
sequential setting. Moreover, we show that the policy gradient of Long-term
Benefit Rate can be analytically reduced to standard policy gradient. This
makes standard policy optimization methods applicable for reducing the bias,
leading to our proposed bias mitigation method ELBERT-PO. Experiments on three
sequential decision making environments show that ELBERT-PO significantly
reduces bias and maintains high utility. Code is available at
https://github.com/Yuancheng-Xu/ELBERT.
- Abstract(参考訳): 機械学習モデルによる決定は、時間とともに持続的な影響をもたらす可能性がある。
長期的な効果を無視すると、静的な設定で公平性基準を無効に課すことは、時間とともにバイアスを悪化させる可能性があることが示されている。
逐次意思決定におけるバイアスに明示的に対処するため、最近の研究はマルコフ決定プロセス(MDP)フレームワークにおける長期的な公平性の概念を定式化している。
彼らは、長期バイアスを各時間ステップにおける静的バイアスの合計と定義している。
しかし, ステップワイズバイアスをナイーブに要約すると, 移行過程における異なる時間ステップの重要度の違いを考慮できないため, 公平感を誤認する可能性があることを実証した。
本研究では,時間的重要性の変動を明示的に考慮し,静的公平性原理を逐次設定に適応する「平等長期利益率」(elbert)という長期的公平性概念を導入する。
さらに、長期利益率の政策勾配を分析的に標準政策勾配に還元できることを示す。
これにより, 標準方針最適化手法をバイアス低減に適用し, 提案手法であるELBERT-POを導出する。
3つの逐次意思決定環境の実験により,ELBERT-POはバイアスを著しく低減し,高い有効性を維持することが示された。
コードはhttps://github.com/Yuancheng-Xu/ELBERT.comで入手できる。
関連論文リスト
- Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Policy Learning for Balancing Short-Term and Long-Term Rewards [11.859587700058235]
本稿では,長期的成果の欠落を許容する最適政策を学習するための新しい枠組みを定式化する。
短期的な成果は、関連する場合、長期的な報酬バランスの推定能力の向上に寄与することを示す。
論文 参考訳(メタデータ) (2024-05-06T10:09:35Z) - Equal Opportunity of Coverage in Fair Regression [50.76908018786335]
我々は、予測の不確実性の下で公正な機械学習(ML)を研究し、信頼性と信頼性のある意思決定を可能にする。
本研究は,(1)類似した結果の異なる集団に対するカバー率が近いこと,(2)人口全体のカバー率が一定水準にあること,の2つの特性を達成することを目的としたカバーの平等機会(EOC)を提案する。
論文 参考訳(メタデータ) (2023-11-03T21:19:59Z) - Policy Optimization with Advantage Regularization for Long-Term Fairness
in Decision Systems [14.095401339355677]
長期的な公正性は,学習に基づく意思決定システムの設計と展開において重要な要素である。
近年の研究では,マルコフ決定プロセス(MDP)を用いて意思決定を長期的公正性要件で定式化する手法が提案されている。
深層強化学習による政策最適化手法は、より厳密な意思決定ポリシーを見つけるのに有効であることを示す。
論文 参考訳(メタデータ) (2022-10-22T20:41:36Z) - Enforcing Delayed-Impact Fairness Guarantees [21.368958668652652]
ELFは, 長期的, 遅延的, 影響の観点から, 信頼性の高い公正性を保証する最初の分類アルゴリズムである。
提案アルゴリズムは, 長期不公平を軽減できることを示す。
論文 参考訳(メタデータ) (2022-08-24T19:14:56Z) - Achieving Long-Term Fairness in Sequential Decision Making [9.046461405943502]
本稿では,長期的公正な意思決定を実現するための枠組みを提案する。
我々は,長期的公正度を測定するための定量的ツールとして,時間ラベル付き因果グラフに対する経路特異的な効果を考察した。
論文 参考訳(メタデータ) (2022-04-04T20:05:44Z) - State-Visitation Fairness in Average-Reward MDPs [5.190207094732672]
我々は,時間的拡大した意思決定,特にマルコフ決定プロセス(mdps)を定式化した意思決定場面における公平性について検討する。
提案する公平性の概念は,各州の長期訪問頻度が指定された割合以上であることを保証する。
提案手法は,予測平均逆方向と長期状態視周波数の同時近似を保証する。
論文 参考訳(メタデータ) (2021-02-14T10:20:53Z) - Provably Good Batch Reinforcement Learning Without Great Exploration [51.51462608429621]
バッチ強化学習(RL)は、RLアルゴリズムを多くの高利得タスクに適用するために重要である。
最近のアルゴリズムは将来性を示しているが、期待された結果に対して過度に楽観的である。
より保守的な更新を行うため、ベルマンの最適性と評価のバックアップに小さな修正を加えることで、はるかに強力な保証が得られることを示す。
論文 参考訳(メタデータ) (2020-07-16T09:25:54Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。