論文の概要: Removing biased data to improve fairness and accuracy
- arxiv url: http://arxiv.org/abs/2102.03054v1
- Date: Fri, 5 Feb 2021 08:34:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-08 14:47:43.190475
- Title: Removing biased data to improve fairness and accuracy
- Title(参考訳): 偏りのあるデータを取り除き、公平性と精度を向上させる
- Authors: Sahil Verma, Michael Ernst, Rene Just
- Abstract要約: 偏りのあるトレーニングデータを識別・削除するためのブラックボックス手法を提案する。
このような偏りのないデータに基づいてトレーニングされた機械学習モデルは、個々の差別が低く、多くの場合0%である。
個人差と精度の点で,従来の7つのアプローチよりも優れていた。
- 参考スコア(独自算出の注目度): 1.3535770763481905
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Machine learning systems are often trained using data collected from
historical decisions. If past decisions were biased, then automated systems
that learn from historical data will also be biased. We propose a black-box
approach to identify and remove biased training data. Machine learning models
trained on such debiased data (a subset of the original training data) have low
individual discrimination, often 0%. These models also have greater accuracy
and lower statistical disparity than models trained on the full historical
data. We evaluated our methodology in experiments using 6 real-world datasets.
Our approach outperformed seven previous approaches in terms of individual
discrimination and accuracy.
- Abstract(参考訳): 機械学習システムは、歴史的決定から収集されたデータを使ってしばしば訓練される。
過去の決定がバイアスされた場合、履歴データから学習する自動システムもバイアスされます。
偏りのあるトレーニングデータを識別・削除するためのブラックボックス手法を提案する。
このような偏りのあるデータ(元のトレーニングデータの一部)で訓練された機械学習モデルは、個人識別が低く、しばしば0%である。
これらのモデルは、完全な履歴データで訓練されたモデルよりも精度が高く、統計的格差も低い。
6つの実世界のデータセットを用いて実験を行った。
個人差と精度の点で,従来の7つのアプローチよりも優れていた。
関連論文リスト
- Model Debiasing by Learnable Data Augmentation [19.625915578646758]
本稿では,トレーニングを正規化可能なデータ拡張戦略を備えた,新しい2段階学習パイプラインを提案する。
合成および現実的なバイアス付きデータセットの実験は、最先端の分類精度を示し、競合する手法より優れている。
論文 参考訳(メタデータ) (2024-08-09T09:19:59Z) - Debiasing Machine Unlearning with Counterfactual Examples [31.931056076782202]
我々は、未学習プロセスの背後にある因果要因を分析し、データレベルとアルゴリズムレベルでバイアスを軽減する。
バイアスのあるデータセットによって、忘れるべき知識が消去される、介入に基づくアプローチを導入する。
本手法は,評価指標に基づく既存の機械学習ベースラインよりも優れる。
論文 参考訳(メタデータ) (2024-04-24T09:33:10Z) - Addressing Bias Through Ensemble Learning and Regularized Fine-Tuning [0.2812395851874055]
本稿では,AIモデルのバイアスを取り除くために,複数の手法を用いた包括的アプローチを提案する。
我々は、データ分割、局所訓練、正規化ファインチューニングを通じて、事前訓練されたモデルのカウンターバイアスで複数のモデルを訓練する。
我々は、単一のバイアスのないニューラルネットワークをもたらす知識蒸留を用いて、ソリューションを結論付けている。
論文 参考訳(メタデータ) (2024-02-01T09:24:36Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Demographic Parity: Mitigating Biases in Real-World Data [0.0]
分類ユーティリティを保ちながら不要なバイアスを除去することを保証する頑健な方法論を提案する。
我々のアプローチは、実世界のデータから導出することで、常にモデルに依存しない方法でこれを達成することができる。
論文 参考訳(メタデータ) (2023-09-27T11:47:05Z) - Pseudo Bias-Balanced Learning for Debiased Chest X-ray Classification [57.53567756716656]
本研究では, バイアスラベルを正確に把握せず, 脱バイアス胸部X線診断モデルの開発について検討した。
本稿では,まずサンプルごとのバイアスラベルをキャプチャし,予測する新しいアルゴリズム,擬似バイアスバランス学習を提案する。
提案手法は他の最先端手法よりも一貫した改善を実現した。
論文 参考訳(メタデータ) (2022-03-18T11:02:18Z) - Robust Fairness-aware Learning Under Sample Selection Bias [17.09665420515772]
サンプル選択バイアス下での頑健で公正な学習のための枠組みを提案する。
テストデータが利用可能で、利用できない場合に、サンプル選択バイアスを処理する2つのアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-05-24T23:23:36Z) - Learning from others' mistakes: Avoiding dataset biases without modeling
them [111.17078939377313]
最先端自然言語処理(NLP)モデルは、意図したタスクをターゲットとする機能ではなく、データセットのバイアスや表面形状の相関をモデル化することを学ぶことが多い。
これまでの研究は、バイアスに関する知識が利用できる場合に、これらの問題を回避するための効果的な方法を示してきた。
本稿では,これらの問題点を無視する学習モデルについて述べる。
論文 参考訳(メタデータ) (2020-12-02T16:10:54Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Towards Robustifying NLI Models Against Lexical Dataset Biases [94.79704960296108]
本稿では、語彙的データセットバイアスに対するモデル強化のための、データレベルとモデルレベルのデバイアス法の両方について検討する。
まず、データ拡張と拡張によってデータセットをデバイアスするが、この方法でモデルバイアスを完全に除去することはできないことを示す。
第2のアプローチでは、バーオブワードのサブモデルを使用して、バイアスを悪用する可能性のある機能をキャプチャし、元のモデルがこれらのバイアス付き機能を学ぶのを防ぐ。
論文 参考訳(メタデータ) (2020-05-10T17:56:10Z) - Leveraging Semi-Supervised Learning for Fairness using Neural Networks [49.604038072384995]
機械学習に基づく意思決定システムの公平性に対する懸念が高まっている。
本稿では,ラベルのないデータから得られるニューラルネットワークを用いた半教師付きアルゴリズムを提案する。
提案したSSFairと呼ばれるモデルは、ラベルのないデータの情報を活用して、トレーニングデータのバイアスを軽減する。
論文 参考訳(メタデータ) (2019-12-31T09:11:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。