論文の概要: A Survey on Preserving Fairness Guarantees in Changing Environments
- arxiv url: http://arxiv.org/abs/2211.07530v1
- Date: Mon, 14 Nov 2022 17:02:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 20:21:34.208607
- Title: A Survey on Preserving Fairness Guarantees in Changing Environments
- Title(参考訳): 環境変化に伴う公正確保に関する調査研究
- Authors: Ainhize Barrainkua, Paula Gordaliza, Jose A. Lozano and Novi
Quadrianto
- Abstract要約: アルゴリズムフェアネスの文献は、過去10年間に大きく成長してきた。
実際には、トレーニング環境とデプロイメント環境の相違が存在する。
公正性を保証する方法を研究する緊急研究線がある。
- 参考スコア(独自算出の注目度): 4.926395463398194
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human lives are increasingly being affected by the outcomes of automated
decision-making systems and it is essential for the latter to be, not only
accurate, but also fair. The literature of algorithmic fairness has grown
considerably over the last decade, where most of the approaches are evaluated
under the strong assumption that the train and test samples are independently
and identically drawn from the same underlying distribution. However, in
practice, dissimilarity between the training and deployment environments
exists, which compromises the performance of the decision-making algorithm as
well as its fairness guarantees in the deployment data. There is an emergent
research line that studies how to preserve fairness guarantees when the data
generating processes differ between the source (train) and target (test)
domains, which is growing remarkably. With this survey, we aim to provide a
wide and unifying overview on the topic. For such purpose, we propose a
taxonomy of the existing approaches for fair classification under distribution
shift, highlight benchmarking alternatives, point out the relation with other
similar research fields and eventually, identify future venues of research.
- Abstract(参考訳): 人命は、自動意思決定システムの結果によってますます影響を受けており、後者が正確であるだけでなく公正でもあることが不可欠である。
アルゴリズム的公平性に関する文献は過去10年間で大きく成長しており、ほとんどのアプローチは、列車と試験のサンプルが同一の分布から独立かつ同一に引き出されるという強い仮定の下で評価されている。
しかし実際には、トレーニング環境とデプロイメント環境の相似性が存在し、意思決定アルゴリズムのパフォーマンスを損なうと同時に、デプロイメントデータに公平性が保証される。
データ生成プロセスがソース(トレイン)とターゲット(テスト)ドメインの間で異なる場合、公正性を保証する方法を研究する緊急研究線があり、それは著しく成長しています。
この調査では、このトピックを広く統一した概要を提供することを目指している。
そこで本研究では,分布シフトの下での公平な分類のための既存のアプローチの分類法を提案するとともに,他の類似研究分野との関係を指摘する。
関連論文リスト
- Optimal Aggregation of Prediction Intervals under Unsupervised Domain Shift [9.387706860375461]
分散シフトは、基礎となるデータ生成プロセスが変化したときに発生し、モデルの性能のずれにつながる。
予測間隔は、その基礎となる分布によって引き起こされる不確実性を特徴づける重要なツールとして機能する。
予測区間を集約し,最小の幅と対象領域を適切にカバーする手法を提案する。
論文 参考訳(メタデータ) (2024-05-16T17:55:42Z) - Supervised Algorithmic Fairness in Distribution Shifts: A Survey [17.826312801085052]
現実世界のアプリケーションでは、機械学習モデルは特定のデータセットでトレーニングされることが多いが、データ分散がシフトする可能性のある環境にデプロイされる。
この変化は、人種や性別などのセンシティブな属性によって特徴づけられる特定のグループに不公平な予測をもたらす可能性がある。
論文 参考訳(メタデータ) (2024-02-02T11:26:18Z) - Statistical Inference Under Constrained Selection Bias [20.862583584531322]
本稿では,選択バイアスが存在する場合の統計的推測を可能にする枠組みを提案する。
出力は、目標分布に対する推定値に対する高確率境界である。
我々はこれらの境界を推定するための手法の計算的および統計的特性を分析し、これらの手法が様々なシミュレートされた半合成的なタスクに対して情報的境界を生成可能であることを示す。
論文 参考訳(メタデータ) (2023-06-05T23:05:26Z) - A Comprehensive Survey on Source-free Domain Adaptation [69.17622123344327]
ソースフリードメイン適応(SFDA)の研究は近年注目を集めている。
SFDAの最近の進歩を包括的に調査し、それらを統一的な分類体系に整理する。
一般的な3つの分類基準で30以上のSFDA法を比較検討した。
論文 参考訳(メタデータ) (2023-02-23T06:32:09Z) - VisDA-2021 Competition Universal Domain Adaptation to Improve
Performance on Out-of-Distribution Data [64.91713686654805]
Visual Domain Adaptation (VisDA) 2021コンペティションは、新しいテストディストリビューションに適応するモデルの能力をテストする。
我々は,新しい視点,背景,モダリティ,品質劣化への適応性を評価する。
厳密なプロトコルを使用してパフォーマンスを計測し、最先端のドメイン適応手法と比較する。
論文 参考訳(メタデータ) (2021-07-23T03:21:51Z) - Through the Data Management Lens: Experimental Analysis and Evaluation
of Fair Classification [75.49600684537117]
データ管理研究は、データとアルゴリズムの公平性に関連するトピックに対する存在感と関心が高まっている。
我々は,その正しさ,公平性,効率性,スケーラビリティ,安定性よりも,13の公正な分類アプローチと追加の変種を幅広く分析している。
我々の分析は、異なるメトリクスとハイレベルなアプローチ特性がパフォーマンスの異なる側面に与える影響に関する新しい洞察を強調します。
論文 参考訳(メタデータ) (2021-01-18T22:55:40Z) - All of the Fairness for Edge Prediction with Optimal Transport [11.51786288978429]
グラフにおけるエッジ予測の課題に対する公平性の問題について検討する。
本稿では,任意のグラフの隣接行列に対して,グループと個々の公正性のトレードオフを伴う埋め込み非依存の補修手順を提案する。
論文 参考訳(メタデータ) (2020-10-30T15:33:13Z) - Robust Fairness under Covariate Shift [11.151913007808927]
保護グループメンバーシップに関して公正な予測を行うことは、分類アルゴリズムの重要な要件となっている。
本稿では,ターゲット性能の面で最悪のケースに対して頑健な予測値を求める手法を提案する。
論文 参考訳(メタデータ) (2020-10-11T04:42:01Z) - Learning Calibrated Uncertainties for Domain Shift: A Distributionally
Robust Learning Approach [150.8920602230832]
ドメインシフトの下で校正された不確実性を学習するためのフレームワークを提案する。
特に、密度比推定は、ターゲット(テスト)サンプルの近さをソース(トレーニング)分布に反映する。
提案手法は下流タスクに有利な校正不確実性を生成する。
論文 参考訳(メタデータ) (2020-10-08T02:10:54Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。