論文の概要: Bia Mitigation for Machine Learning Classifiers: A Comprehensive Survey
- arxiv url: http://arxiv.org/abs/2207.07068v1
- Date: Thu, 14 Jul 2022 17:16:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-15 14:09:44.663971
- Title: Bia Mitigation for Machine Learning Classifiers: A Comprehensive Survey
- Title(参考訳): 機械学習分類器のbia緩和に関する包括的調査
- Authors: Max Hort, Zhenpeng Chen, Jie M. Zhang, Federica Sarro, Mark Harman
- Abstract要約: 本稿では,機械学習(ML)モデルにおける公平性を実現するためのバイアス緩和手法を包括的に調査する。
ML分類器のバイアス軽減に関する合計234の論文を収集する。
本論文では,既存のバイアス緩和手法について検討する。
- 参考スコア(独自算出の注目度): 25.331766464137733
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper provides a comprehensive survey of bias mitigation methods for
achieving fairness in Machine Learning (ML) models. We collect a total of 234
publications concerning bias mitigation for ML classifiers. These methods can
be distinguished based on their intervention procedure (i.e., pre-processing,
in-processing, post-processing) and the technology they apply. We investigate
how existing bias mitigation methods are evaluated in the literature. In
particular, we consider datasets, metrics and benchmarking. Based on the
gathered insights (e.g., what is the most popular fairness metric? How many
datasets are used for evaluating bias mitigation methods?). We hope to support
practitioners in making informed choices when developing and evaluating new
bias mitigation methods.
- Abstract(参考訳): 本稿では,機械学習(ML)モデルにおける公平性を実現するためのバイアス緩和手法を包括的に調査する。
ML分類器のバイアス軽減に関する合計234の論文を収集する。
これらの方法は、その介入手順(前処理、内処理、後処理)とそれらを適用する技術に基づいて区別することができる。
本研究では,既存のバイアス緩和手法を文献上で評価する。
特に、データセット、メトリクス、ベンチマークを検討します。
収集された洞察に基づいて(例えば、最も人気のある公正度測定値は何ですか?バイアス緩和手法の評価に使用されるデータセットはいくつか?)。
我々は,新たなバイアス緩和手法の開発と評価において,実践者を支援することを望む。
関連論文リスト
- Bias and Fairness in Large Language Models: A Survey [76.65471160523444]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - What is the state of the art? Accounting for multiplicity in machine
learning benchmark performance [0.0]
SOTAの最大性能を推定として用いることは偏りのある推定器であり、過度に楽観的な結果を与える。
精度が高い場合に、どのように影響が制限されるかを示す。
実世界の例である、2020年のKaggleコンペティションについて論じる。
論文 参考訳(メタデータ) (2023-03-10T10:32:18Z) - Systematic Evaluation of Predictive Fairness [60.0947291284978]
バイアス付きデータセットのトレーニングにおけるバイアスの緩和は、重要なオープンな問題である。
複数のタスクにまたがる様々なデバイアス化手法の性能について検討する。
データ条件が相対モデルの性能に強い影響を与えることがわかった。
論文 参考訳(メタデータ) (2022-10-17T05:40:13Z) - MRCLens: an MRC Dataset Bias Detection Toolkit [82.44296974850639]
MRCLensは,ユーザがフルモデルをトレーニングする前に,バイアスが存在するかどうかを検出するツールキットである。
ツールキットの導入の便宜のために,MDCにおける共通バイアスの分類も提供する。
論文 参考訳(メタデータ) (2022-07-18T21:05:39Z) - A Comprehensive Empirical Study of Bias Mitigation Methods for Software
Fairness [27.67313504037565]
本稿では,バイアス緩和手法の大規模かつ包括的評価について述べる。
バイアス緩和法は,12の機械学習(ML)性能指標,4つのフェアネス指標,24種類のフェアネス・パフォーマンストレードオフ評価を用いて評価した。
バイアス緩和法の有効性は,タスク,モデル,公正度,機械学習のパフォーマンス指標に依存するが,すべてのシナリオにおいて有効な「銀の弾丸」バイアス緩和法は存在しない。
論文 参考訳(メタデータ) (2022-07-07T13:14:49Z) - Evaluating the Predictive Performance of Positive-Unlabelled
Classifiers: a brief critical review and practical recommendations for
improvement [77.34726150561087]
Positive-Unlabelled (PU) 学習は機械学習の領域として成長している。
本稿では、PU分類器を提案する51の論文において、主要なPU学習評価手法と予測精度の選択について批判的にレビューする。
論文 参考訳(メタデータ) (2022-06-06T08:31:49Z) - A Sandbox Tool to Bias(Stress)-Test Fairness Algorithms [19.86635585740634]
バイアス注入型サンドボックスツールの概念と実装について, 各種バイアスの公平性について検討する。
既存のツールキットとは異なり、私たちのツールはMLパイプラインに事実上バイアスを注入する制御された環境を提供します。
特に、バイアス注入前において、偏りのない状態の真のラベルに介入した後に生じる予測を比較することで、与えられた治療法が注入されたバイアスを軽減することができるかどうかを検証できる。
論文 参考訳(メタデータ) (2022-04-21T16:12:19Z) - Bias and unfairness in machine learning models: a systematic literature
review [43.55994393060723]
本研究の目的は,機械学習モデルにおけるバイアスと不公平性に関する既存の知識を検討することである。
The Systematic Literature Reviewによると、2017年から2022年にかけて、Scoops、IEEE Xplore、Web of Science、Google Scholarの知識ベースで40の論文が出版された。
論文 参考訳(メタデータ) (2022-02-16T16:27:00Z) - Information-Theoretic Bias Reduction via Causal View of Spurious
Correlation [71.9123886505321]
本稿では,スプリアス相関の因果的解釈による情報理論バイアス測定手法を提案する。
本稿では,バイアス正規化損失を含むアルゴリズムバイアスに対する新しいデバイアスフレームワークを提案する。
提案したバイアス測定とデバイアス法は、多様な現実シナリオで検証される。
論文 参考訳(メタデータ) (2022-01-10T01:19:31Z) - Learning the Truth From Only One Side of the Story [58.65439277460011]
一般化線形モデルに焦点をあて、このサンプリングバイアスを調整しなければ、モデルは準最適に収束するか、あるいは最適解に収束しないかもしれないことを示す。
理論的保証を伴って適応的なアプローチを提案し、いくつかの既存手法を実証的に上回っていることを示す。
論文 参考訳(メタデータ) (2020-06-08T18:20:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。