論文の概要: Enforcing Delayed-Impact Fairness Guarantees
- arxiv url: http://arxiv.org/abs/2208.11744v1
- Date: Wed, 24 Aug 2022 19:14:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-26 13:11:33.414438
- Title: Enforcing Delayed-Impact Fairness Guarantees
- Title(参考訳): 遅延即効性保証の実施
- Authors: Aline Weber, Blossom Metevier, Yuriy Brun, Philip S. Thomas, Bruno
Castro da Silva
- Abstract要約: ELFは, 長期的, 遅延的, 影響の観点から, 信頼性の高い公正性を保証する最初の分類アルゴリズムである。
提案アルゴリズムは, 長期不公平を軽減できることを示す。
- 参考スコア(独自算出の注目度): 21.368958668652652
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent research has shown that seemingly fair machine learning models, when
used to inform decisions that have an impact on peoples' lives or well-being
(e.g., applications involving education, employment, and lending), can
inadvertently increase social inequality in the long term. This is because
prior fairness-aware algorithms only consider static fairness constraints, such
as equal opportunity or demographic parity. However, enforcing constraints of
this type may result in models that have negative long-term impact on
disadvantaged individuals and communities. We introduce ELF (Enforcing
Long-term Fairness), the first classification algorithm that provides
high-confidence fairness guarantees in terms of long-term, or delayed, impact.
We prove that the probability that ELF returns an unfair solution is less than
a user-specified tolerance and that (under mild assumptions), given sufficient
training data, ELF is able to find and return a fair solution if one exists. We
show experimentally that our algorithm can successfully mitigate long-term
unfairness.
- Abstract(参考訳): 最近の研究では、一見公正な機械学習モデルが、人々の生活や幸福に影響を及ぼす決定(例えば、教育、雇用、貸与などを含む応用)を知らせるために使用される場合、長期的には社会的不平等が必然的に増加することが示されている。
これは、以前のフェアネス認識アルゴリズムは、平等な機会や人口統計学的パリティのような静的フェアネス制約のみを考慮するためである。
しかし、このタイプの制約を強制することは、不利な個人やコミュニティに長期的な影響をもたらすモデルをもたらす可能性がある。
ELF (Enforcecing Long-term Fairness) は, 長期的, 遅延的, 影響の観点から, 信頼性の高い公正性を保証する最初の分類アルゴリズムである。
ELFが不公平な解を返す確率は、ユーザの指定した寛大さよりも低く、(軽微な仮定の下では)十分なトレーニングデータがあれば、ELFが存在すれば公正な解を見つけて返却することができることを証明します。
本アルゴリズムが長期不公平を軽減できることを実験的に示す。
関連論文リスト
- Equal Opportunity of Coverage in Fair Regression [50.76908018786335]
我々は、予測の不確実性の下で公正な機械学習(ML)を研究し、信頼性と信頼性のある意思決定を可能にする。
本研究は,(1)類似した結果の異なる集団に対するカバー率が近いこと,(2)人口全体のカバー率が一定水準にあること,の2つの特性を達成することを目的としたカバーの平等機会(EOC)を提案する。
論文 参考訳(メタデータ) (2023-11-03T21:19:59Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Equal Improvability: A New Fairness Notion Considering the Long-term
Impact [27.72859815965265]
EI(Equal Improvability)と呼ばれる新しい公正性の概念を提案する。
EIは、異なるグループ間で拒絶されたサンプルの潜在的受容率を等しくする。
提案したEI正規化アルゴリズムは、EIの観点から公平な分類器を見つけることを奨励することを示す。
論文 参考訳(メタデータ) (2022-10-13T04:59:28Z) - Fairness Reprogramming [42.65700878967251]
モデル再プログラミング手法を取り入れたFairRe Programと呼ばれる新しい汎用フェアネス学習パラダイムを提案する。
具体的には、FairRe Programはモデルを変更することができず、フェアネストリガと呼ばれる一連の摂動を入力に追加するケースについて検討している。
我々は,固定MLモデルの出力予測において,公平性トリガが効果的に人口統計バイアスを曖昧にすることができることを理論的および実証的に示す。
論文 参考訳(メタデータ) (2022-09-21T09:37:00Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Metrizing Fairness [7.820667552233989]
本研究では,2つのグループのうちの1つに属する個人の特性を予測するための教師付き学習問題について検討した。
本稿では,積分確率測度を用いて不公平さを測る概念的および計算的利点を示す。
統計的パリティが予測精度を向上させる条件を同定する。
論文 参考訳(メタデータ) (2022-05-30T12:28:10Z) - Fairness without Demographics through Adversarially Reweighted Learning [20.803276801890657]
保護されたグループメンバーシップさえ知らない場合、フェアネスを改善するためにMLモデルをトレーニングします。
特に,非保護機能やタスクラベルは公平性の問題を特定する上で有用である,という仮説を立てる。
以上の結果から,ARLはRawlsian Max-Minフェアネスを向上し,複数のデータセットにおける最悪の保護グループに対するAUCの顕著な改善が見られた。
論文 参考訳(メタデータ) (2020-06-23T16:06:52Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z) - Learning Individually Fair Classifier with Path-Specific Causal-Effect
Constraint [31.86959207229775]
本稿では,個々に公平な分類器を学習するための枠組みを提案する。
個人不公平(PIU)の確率を定義し、データから推定できるPIUの上界がゼロに近いように制御される最適化問題を解く。
実験結果から,本手法は精度のわずかなコストで,個別に公平な分類器を学習できることが示唆された。
論文 参考訳(メタデータ) (2020-02-17T02:46:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。