論文の概要: Adapting Fairness Interventions to Missing Values
- arxiv url: http://arxiv.org/abs/2305.19429v1
- Date: Tue, 30 May 2023 21:50:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-01 19:27:59.770575
- Title: Adapting Fairness Interventions to Missing Values
- Title(参考訳): 価値の欠落に公正な介入を適用する
- Authors: Raymond Feng, Flavio P. Calmon, Hao Wang
- Abstract要約: 実世界のデータにおける値の欠落は、アルゴリズムの公正性に顕著でユニークな課題をもたらす。
最初のデータがインプットされ、次に、そのインプットされたデータが分類に使用されるような、欠落した値を扱うための標準的な手順は、識別を悪化させる。
我々は,値の欠落を伴う公平な分類のためのスケーラブルで適応的なアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 3.9430294028981763
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Missing values in real-world data pose a significant and unique challenge to
algorithmic fairness. Different demographic groups may be unequally affected by
missing data, and the standard procedure for handling missing values where
first data is imputed, then the imputed data is used for classification -- a
procedure referred to as "impute-then-classify" -- can exacerbate
discrimination. In this paper, we analyze how missing values affect algorithmic
fairness. We first prove that training a classifier from imputed data can
significantly worsen the achievable values of group fairness and average
accuracy. This is because imputing data results in the loss of the missing
pattern of the data, which often conveys information about the predictive
label. We present scalable and adaptive algorithms for fair classification with
missing values. These algorithms can be combined with any preexisting
fairness-intervention algorithm to handle all possible missing patterns while
preserving information encoded within the missing patterns. Numerical
experiments with state-of-the-art fairness interventions demonstrate that our
adaptive algorithms consistently achieve higher fairness and accuracy than
impute-then-classify across different datasets.
- Abstract(参考訳): 実世界のデータにおける値の欠落は、アルゴリズムの公正性に顕著でユニークな課題をもたらす。
異なる人口集団は、欠落したデータによって不平等に影響を受ける可能性があり、最初のデータがインプットされた場合に欠落した値を扱う標準的な手順では、インプットされたデータが分類に使用される。
本稿では,値の欠如がアルゴリズムの公平性に与える影響を分析する。
まず,偽データからの分類器の訓練は,グループフェアネスと平均精度の達成可能な値を著しく悪化させる可能性があることを証明した。
これは、インパルスデータによってデータの欠落パターンが失われ、しばしば予測ラベルに関する情報が伝達されるためである。
我々は,値の欠落を伴う公平な分類のためのスケーラブルで適応的なアルゴリズムを提案する。
これらのアルゴリズムは、既存のフェアネス干渉アルゴリズムと組み合わせることで、欠落パターンの中にエンコードされた情報を保存しながら、可能なすべての欠落パターンを処理することができる。
最先端のフェアネス介入による数値実験により、我々の適応アルゴリズムは、異なるデータセットをまたいだインプット-then-classifyよりも常に高いフェアネスと精度を達成することを示した。
関連論文リスト
- Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Correcting Underrepresentation and Intersectional Bias for Classification [49.1574468325115]
我々は、表現不足のバイアスによって破損したデータから学習する問題を考察する。
偏りのないデータの少ない場合、グループワイドのドロップアウト率を効率的に推定できることが示される。
本アルゴリズムは,有限VC次元のモデルクラスに対して,効率的な学習を可能にする。
論文 参考訳(メタデータ) (2023-06-19T18:25:44Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Understanding Unfairness in Fraud Detection through Model and Data Bias
Interactions [4.159343412286401]
アルゴリズムの不公平性は、データ内のモデルとバイアスの間の相互作用に起因すると我々は主張する。
フェアネスブラインドMLアルゴリズムが示す公平さと正確さのトレードオフに関する仮説を、異なるデータバイアス設定下で検討する。
論文 参考訳(メタデータ) (2022-07-13T15:18:30Z) - Classification of datasets with imputed missing values: does imputation
quality matter? [2.7646249774183]
不完全なデータセットでサンプルを分類するのは簡単ではない。
品質を評価するのによく使われる尺度がいかに欠陥があるかを実証する。
本稿では,データ全体の分布をいかに再現するかに焦点をあてた,新たな相違点のクラスを提案する。
論文 参考訳(メタデータ) (2022-06-16T22:58:03Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Greedy structure learning from data that contains systematic missing
values [13.088541054366527]
欠落した値を含むデータから学ぶことは、多くの領域でよくある現象である。
比較的少数のベイジアンネットワーク構造学習アルゴリズムが欠落データの原因となっている。
本稿では,2対の削除と逆確率重み付けを利用したグリージー検索構造学習の3つの変種について述べる。
論文 参考訳(メタデータ) (2021-07-09T02:56:44Z) - Self-Trained One-class Classification for Unsupervised Anomaly Detection [56.35424872736276]
異常検出(AD)は、製造から医療まで、さまざまな分野に応用されている。
本研究は、トレーニングデータ全体がラベル付けされておらず、正規サンプルと異常サンプルの両方を含む可能性のある、教師なしAD問題に焦点を当てる。
この問題に対処するため,データリファインメントによる堅牢な一級分類フレームワークを構築した。
本手法は6.3AUCと12.5AUCの平均精度で最先端の1クラス分類法より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-11T01:36:08Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z) - Fast Fair Regression via Efficient Approximations of Mutual Information [0.0]
本稿では, 回帰モデルに対する独立性, 分離性, 充足性グループフェアネス基準の高速な近似について紹介する。
正規化リスク最小化フレームワーク内で公正性を強制するために、正規化のような近似を使用する。
実世界のデータセットでの実験では、計算効率が優れているにもかかわらず、我々のアルゴリズムは依然として最先端の精度/フェアネスのトレードオフを示す。
論文 参考訳(メタデータ) (2020-02-14T08:50:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。