論文の概要: Simultaneous Improvement of ML Model Fairness and Performance by
Identifying Bias in Data
- arxiv url: http://arxiv.org/abs/2210.13182v1
- Date: Mon, 24 Oct 2022 13:04:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 21:44:10.814734
- Title: Simultaneous Improvement of ML Model Fairness and Performance by
Identifying Bias in Data
- Title(参考訳): データのバイアス同定によるMLモデルフェアネスと性能の同時向上
- Authors: Bhushan Chaudhari, Akash Agarwal, Tanmoy Bhowmik
- Abstract要約: トレーニング前にデータセットから削除すべき特定の種類のバイアスを記述したインスタンスを検出できるデータ前処理手法を提案する。
特に、類似した特徴を持つインスタンスが存在するが、保護属性の変動に起因するラベルが異なる問題設定では、固有のバイアスがデータセット内で引き起こされる、と主張する。
- 参考スコア(独自算出の注目度): 1.76179873429447
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models built on datasets containing discriminative instances
attributed to various underlying factors result in biased and unfair outcomes.
It's a well founded and intuitive fact that existing bias mitigation strategies
often sacrifice accuracy in order to ensure fairness. But when AI engine's
prediction is used for decision making which reflects on revenue or operational
efficiency such as credit risk modelling, it would be desirable by the business
if accuracy can be somehow reasonably preserved. This conflicting requirement
of maintaining accuracy and fairness in AI motivates our research. In this
paper, we propose a fresh approach for simultaneous improvement of fairness and
accuracy of ML models within a realistic paradigm. The essence of our work is a
data preprocessing technique that can detect instances ascribing a specific
kind of bias that should be removed from the dataset before training and we
further show that such instance removal will have no adverse impact on model
accuracy. In particular, we claim that in the problem settings where instances
exist with similar feature but different labels caused by variation in
protected attributes , an inherent bias gets induced in the dataset, which can
be identified and mitigated through our novel scheme. Our experimental
evaluation on two open-source datasets demonstrates how the proposed method can
mitigate bias along with improving rather than degrading accuracy, while
offering certain set of control for end user.
- Abstract(参考訳): さまざまな要因に起因する識別インスタンスを含むデータセット上に構築された機械学習モデルは、バイアスと不公平な結果をもたらす。
既存のバイアス軽減戦略が、公正性を確保するために正確さを犠牲にすることがよくあります。
しかし、aiエンジンの予測が、信用リスクモデリングのような収益や運用効率を反映した意思決定に使用される場合、正確性が合理的に保たれるならば、ビジネスにとって望ましいでしょう。
このAIの正確性と公正性を維持するという矛盾する要件は、我々の研究を動機付けている。
本稿では,現実パラダイムにおけるMLモデルの公平性と精度を同時に向上するための新しいアプローチを提案する。
私たちの研究の本質は、トレーニング前にデータセットから削除すべき特定の種類のバイアスを記述したインスタンスを検出できるデータ前処理技術です。
特に,類似した機能を持つインスタンスが存在するが,保護属性の変動に起因するラベルが異なる問題では,データセットに固有のバイアスが引き起こされ,新たなスキームを通じて識別・緩和できると主張している。
2つのオープンソースデータセットに対する実験的な評価は、提案手法が精度を劣化させるよりもバイアスを緩和し、エンドユーザーに一定の制御を提供することを実証している。
関連論文リスト
- Delving into Identify-Emphasize Paradigm for Combating Unknown Bias [52.76758938921129]
同定精度を高めるため,有効バイアス強調スコアリング法(ECS)を提案する。
また, マイニングされたバイアスアライメントとバイアスコンプリケート試料のコントリビューションのバランスをとるために, 勾配アライメント(GA)を提案する。
様々な環境で複数のデータセットで実験を行い、提案されたソリューションが未知のバイアスの影響を軽減することを実証した。
論文 参考訳(メタデータ) (2023-02-22T14:50:24Z) - On Testing and Comparing Fair classifiers under Data Bias [57.797550855642505]
表現不足とラベルバイアスの公平な分類器の精度と公平性に及ぼす効果について検討した。
我々の実験は、既存のフェアネスダッシュボードにデータバイアスリスクの尺度を統合する方法を示している。
論文 参考訳(メタデータ) (2023-02-12T13:04:46Z) - Calibrated Selective Classification [38.01669058597009]
そこで我々は,「不確か」な不確実性のある例を拒否する手法を提案する。
本稿では,選択的校正モデル学習のためのフレームワークを提案する。そこでは,任意のベースモデルの選択的校正誤差を改善するために,個別のセレクタネットワークを訓練する。
われわれは,複数画像分類と肺癌リスク評価におけるアプローチの実証的効果を実証した。
論文 参考訳(メタデータ) (2022-08-25T13:31:09Z) - Prisoners of Their Own Devices: How Models Induce Data Bias in
Performative Prediction [4.874780144224057]
偏見のあるモデルは、社会の特定のグループに不均等に害を与える決定を下すことができる。
多くの作業は静的ML環境での不公平さを測定することに費やされているが、動的でパフォーマンスのよい予測は行っていない。
本稿では,データのバイアスを特徴付ける分類法を提案する。
論文 参考訳(メタデータ) (2022-06-27T10:56:04Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Robust Fairness-aware Learning Under Sample Selection Bias [17.09665420515772]
サンプル選択バイアス下での頑健で公正な学習のための枠組みを提案する。
テストデータが利用可能で、利用できない場合に、サンプル選択バイアスを処理する2つのアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-05-24T23:23:36Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - Learning from others' mistakes: Avoiding dataset biases without modeling
them [111.17078939377313]
最先端自然言語処理(NLP)モデルは、意図したタスクをターゲットとする機能ではなく、データセットのバイアスや表面形状の相関をモデル化することを学ぶことが多い。
これまでの研究は、バイアスに関する知識が利用できる場合に、これらの問題を回避するための効果的な方法を示してきた。
本稿では,これらの問題点を無視する学習モデルについて述べる。
論文 参考訳(メタデータ) (2020-12-02T16:10:54Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。