論文の概要: Equal Improvability: A New Fairness Notion Considering the Long-term
Impact
- arxiv url: http://arxiv.org/abs/2210.06732v1
- Date: Thu, 13 Oct 2022 04:59:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 17:36:51.046706
- Title: Equal Improvability: A New Fairness Notion Considering the Long-term
Impact
- Title(参考訳): Equal Improvability: 長期的影響を考慮した新しいフェアネス表記法
- Authors: Ozgur Guldogan, Yuchen Zeng, Jy-yong Sohn, Ramtin Pedarsani, Kangwook
Lee
- Abstract要約: EI(Equal Improvability)と呼ばれる新しい公正性の概念を提案する。
EIは、異なるグループ間で拒絶されたサンプルの潜在的受容率を等しくする。
提案したEI正規化アルゴリズムは、EIの観点から公平な分類器を見つけることを奨励することを示す。
- 参考スコア(独自算出の注目度): 27.72859815965265
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Devising a fair classifier that does not discriminate against different
groups is an important problem in machine learning. Although researchers have
proposed various ways of defining group fairness, most of them only focused on
the immediate fairness, ignoring the long-term impact of a fair classifier
under the dynamic scenario where each individual can improve its feature over
time. Such dynamic scenarios happen in real world, e.g., college admission and
credit loaning, where each rejected sample makes effort to change its features
to get accepted afterwards. In this dynamic setting, the long-term fairness
should equalize the samples' feature distribution across different groups after
the rejected samples make some effort to improve. In order to promote long-term
fairness, we propose a new fairness notion called Equal Improvability (EI),
which equalizes the potential acceptance rate of the rejected samples across
different groups assuming a bounded level of effort will be spent by each
rejected sample. We analyze the properties of EI and its connections with
existing fairness notions. To find a classifier that satisfies the EI
requirement, we propose and study three different approaches that solve
EI-regularized optimization problems. Through experiments on both synthetic and
real datasets, we demonstrate that the proposed EI-regularized algorithms
encourage us to find a fair classifier in terms of EI. Finally, we provide
experimental results on dynamic scenarios which highlight the advantages of our
EI metric in achieving the long-term fairness. Codes are available in a GitHub
repository, see https://github.com/guldoganozgur/ei_fairness.
- Abstract(参考訳): 異なるグループを区別しない公平な分類器を開発することは、機械学習において重要な問題である。
研究者はグループフェアネスを定義する様々な方法を提案してきたが、そのほとんどは即時フェアネスにのみ焦点をあてており、各個人が時間をかけてその特徴を改善できる動的なシナリオの下で、フェア分類器の長期的な影響を無視している。
このような動的なシナリオは、例えば大学入校や貸借など、現実世界で発生し、拒絶された各サンプルは、その後受理される機能を変更する努力をする。
このダイナミックな設定では、拒絶されたサンプルが改善に努力した後、サンプルの特徴分布を異なるグループで等しくする。
本稿では, 長期的公平性を促進するために, 異なるグループ間での排他的サンプルの受入率を等しくする等速性(equal improvability, ei)という新しい公平性概念を提案する。
我々は、EIの特性と既存の公正の概念との関係を分析する。
EI要求を満たす分類器を見つけるために、EI正規化最適化問題を解く3つの異なるアプローチを提案し、検討する。
合成データセットと実データセットの両方の実験を通して、提案したEI正規化アルゴリズムは、EIの観点から公平な分類子を見つけることを奨励することを示した。
最後に、長期的公正性を達成する上でのEI指標の利点を強調した動的シナリオに関する実験結果を提供する。
コードはGitHubリポジトリで入手できる(https://github.com/guldoganozgur/ei_fairness)。
関連論文リスト
- What Hides behind Unfairness? Exploring Dynamics Fairness in Reinforcement Learning [52.51430732904994]
強化学習問題では、エージェントはリターンを最大化しながら長期的な公正性を考慮する必要がある。
近年の研究では様々なフェアネスの概念が提案されているが、RL問題における不公平性がどのように生じるかは定かではない。
我々は、環境力学から生じる不平等を明示的に捉える、ダイナミックスフェアネスという新しい概念を導入する。
論文 参考訳(メタデータ) (2024-04-16T22:47:59Z) - Through the Fairness Lens: Experimental Analysis and Evaluation of
Entity Matching [17.857838691801884]
アルゴリズムの公平さは、機械バイアスとその社会的影響に対処するためのタイムリーなトピックとなっている。
これら2つのトピックに関する広範な研究にもかかわらず、エンティティマッチングの公平性にはほとんど注意が払われていない。
フェアネスのレンズを通してEMを監査するためのソーシャルデータセットを2つ生成する。
論文 参考訳(メタデータ) (2023-07-06T02:21:08Z) - Fair Without Leveling Down: A New Intersectional Fairness Definition [1.0958014189747356]
本稿では,感性グループ間での絶対値と相対値のパフォーマンスを組み合わせた$alpha$-Intersectional Fairnessという新たな定義を提案する。
我々は、新しいフェアネス定義を用いて、複数の一般的なプロセス内機械学習アプローチをベンチマークし、単純なベースラインよりも改善が得られないことを示します。
論文 参考訳(メタデータ) (2023-05-21T16:15:12Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Learning Informative Representation for Fairness-aware Multivariate
Time-series Forecasting: A Group-based Perspective [50.093280002375984]
多変量時系列予測モデル(MTS)では変数間の性能不公平性が広く存在する。
フェアネスを意識したMTS予測のための新しいフレームワークであるFairForを提案する。
論文 参考訳(メタデータ) (2023-01-27T04:54:12Z) - FaiREE: Fair Classification with Finite-Sample and Distribution-Free
Guarantee [40.10641140860374]
FaiREE は群フェアネス制約を有限サンプルと分布自由な理論保証で満たす公平な分類アルゴリズムである。
FaiREEは最先端のアルゴリズムよりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-11-28T05:16:20Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Metric-Free Individual Fairness with Cooperative Contextual Bandits [17.985752744098267]
グループフェアネスは、グループ内の一部の個人に対して不公平であるように、異なるグループが同様に扱われるべきである。
個々の公正性は、問題固有の類似度指標に依存するため、まだ検討されていない。
本研究では,メトリックフリーな個人フェアネスと協調的文脈帯域幅アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-11-13T03:10:35Z) - Adversarial Learning for Counterfactual Fairness [15.302633901803526]
近年、フェアネスは機械学習研究コミュニティにおいて重要なトピックとなっている。
我々は,MDDの罰則よりも強力な推論を可能にする,対向的ニューラルネットワークアプローチに頼ることを提案する。
実験では、離散的および連続的な設定の両方に対して、対実的公正性の観点から、顕著な改善が示された。
論文 参考訳(メタデータ) (2020-08-30T09:06:03Z) - SenSeI: Sensitive Set Invariance for Enforcing Individual Fairness [50.916483212900275]
まず、ある感度集合の不変性を強制する個別の公正性のバージョンを定式化する。
次に,輸送型正規化器を設計し,個別の公平性を強制し,効率よく正規化器を最小化するためのアルゴリズムを開発する。
論文 参考訳(メタデータ) (2020-06-25T04:31:57Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。