論文の概要: Simultaneous Improvement of ML Model Fairness and Performance by
Identifying Bias in Data
- arxiv url: http://arxiv.org/abs/2210.13182v1
- Date: Mon, 24 Oct 2022 13:04:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 21:44:10.814734
- Title: Simultaneous Improvement of ML Model Fairness and Performance by
Identifying Bias in Data
- Title(参考訳): データのバイアス同定によるMLモデルフェアネスと性能の同時向上
- Authors: Bhushan Chaudhari, Akash Agarwal, Tanmoy Bhowmik
- Abstract要約: トレーニング前にデータセットから削除すべき特定の種類のバイアスを記述したインスタンスを検出できるデータ前処理手法を提案する。
特に、類似した特徴を持つインスタンスが存在するが、保護属性の変動に起因するラベルが異なる問題設定では、固有のバイアスがデータセット内で引き起こされる、と主張する。
- 参考スコア(独自算出の注目度): 1.76179873429447
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models built on datasets containing discriminative instances
attributed to various underlying factors result in biased and unfair outcomes.
It's a well founded and intuitive fact that existing bias mitigation strategies
often sacrifice accuracy in order to ensure fairness. But when AI engine's
prediction is used for decision making which reflects on revenue or operational
efficiency such as credit risk modelling, it would be desirable by the business
if accuracy can be somehow reasonably preserved. This conflicting requirement
of maintaining accuracy and fairness in AI motivates our research. In this
paper, we propose a fresh approach for simultaneous improvement of fairness and
accuracy of ML models within a realistic paradigm. The essence of our work is a
data preprocessing technique that can detect instances ascribing a specific
kind of bias that should be removed from the dataset before training and we
further show that such instance removal will have no adverse impact on model
accuracy. In particular, we claim that in the problem settings where instances
exist with similar feature but different labels caused by variation in
protected attributes , an inherent bias gets induced in the dataset, which can
be identified and mitigated through our novel scheme. Our experimental
evaluation on two open-source datasets demonstrates how the proposed method can
mitigate bias along with improving rather than degrading accuracy, while
offering certain set of control for end user.
- Abstract(参考訳): さまざまな要因に起因する識別インスタンスを含むデータセット上に構築された機械学習モデルは、バイアスと不公平な結果をもたらす。
既存のバイアス軽減戦略が、公正性を確保するために正確さを犠牲にすることがよくあります。
しかし、aiエンジンの予測が、信用リスクモデリングのような収益や運用効率を反映した意思決定に使用される場合、正確性が合理的に保たれるならば、ビジネスにとって望ましいでしょう。
このAIの正確性と公正性を維持するという矛盾する要件は、我々の研究を動機付けている。
本稿では,現実パラダイムにおけるMLモデルの公平性と精度を同時に向上するための新しいアプローチを提案する。
私たちの研究の本質は、トレーニング前にデータセットから削除すべき特定の種類のバイアスを記述したインスタンスを検出できるデータ前処理技術です。
特に,類似した機能を持つインスタンスが存在するが,保護属性の変動に起因するラベルが異なる問題では,データセットに固有のバイアスが引き起こされ,新たなスキームを通じて識別・緩和できると主張している。
2つのオープンソースデータセットに対する実験的な評価は、提案手法が精度を劣化させるよりもバイアスを緩和し、エンドユーザーに一定の制御を提供することを実証している。
関連論文リスト
- Understanding trade-offs in classifier bias with quality-diversity optimization: an application to talent management [2.334978724544296]
公正なAIモデルを開発する上での大きな課題は、そのようなモデルをトレーニングする上で利用可能なデータのバイアスにある。
本稿では,データセットに固有のバイアスを可視化し,公平性と正確性の間の潜在的なトレードオフを理解する方法を提案する。
論文 参考訳(メタデータ) (2024-11-25T22:14:02Z) - Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Achievable Fairness on Your Data With Utility Guarantees [16.78730663293352]
機械学習の公平性において、異なるセンシティブなグループ間の格差を最小限に抑えるトレーニングモデルは、しばしば精度を低下させる。
本稿では,各データセットに適合する公平性-正確性トレードオフ曲線を近似する計算効率のよい手法を提案する。
そこで我々は,モデルフェアネスを監査するための堅牢な枠組みを実践者に提供し,評価の不確実性を定量化する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-27T00:59:32Z) - Fair Multivariate Adaptive Regression Splines for Ensuring Equity and
Transparency [1.124958340749622]
学習過程に公平度を組み込んだMARSに基づく公正度予測モデルを提案する。
MARSは、特徴選択を行い、非線形関係を扱い、解釈可能な決定ルールを生成し、変数の最適分割基準を導出する非パラメトリック回帰モデルである。
実世界のデータにfairMARSモデルを適用し、精度とエクイティの観点からその有効性を実証する。
論文 参考訳(メタデータ) (2024-02-23T19:02:24Z) - Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Delving into Identify-Emphasize Paradigm for Combating Unknown Bias [52.76758938921129]
同定精度を高めるため,有効バイアス強調スコアリング法(ECS)を提案する。
また, マイニングされたバイアスアライメントとバイアスコンプリケート試料のコントリビューションのバランスをとるために, 勾配アライメント(GA)を提案する。
様々な環境で複数のデータセットで実験を行い、提案されたソリューションが未知のバイアスの影響を軽減することを実証した。
論文 参考訳(メタデータ) (2023-02-22T14:50:24Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Learning from others' mistakes: Avoiding dataset biases without modeling
them [111.17078939377313]
最先端自然言語処理(NLP)モデルは、意図したタスクをターゲットとする機能ではなく、データセットのバイアスや表面形状の相関をモデル化することを学ぶことが多い。
これまでの研究は、バイアスに関する知識が利用できる場合に、これらの問題を回避するための効果的な方法を示してきた。
本稿では,これらの問題点を無視する学習モデルについて述べる。
論文 参考訳(メタデータ) (2020-12-02T16:10:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。