論文の概要: Bias Mitigation Methods for Binary Classification Decision-Making
Systems: Survey and Recommendations
- arxiv url: http://arxiv.org/abs/2305.20020v1
- Date: Wed, 31 May 2023 16:48:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-01 15:13:28.694239
- Title: Bias Mitigation Methods for Binary Classification Decision-Making
Systems: Survey and Recommendations
- Title(参考訳): バイナリ分類決定システムにおけるバイアス軽減手法:調査と勧告
- Authors: Madeleine Waller, Odinaldo Rodrigues, Oana Cocarascu
- Abstract要約: 本稿では,バイアス緩和法の研究状況について概観する。
本稿では,それらの利点と限界について報告し,二項分類のためのバイアス緩和手法の開発を推奨する。
- 参考スコア(独自算出の注目度): 2.3848738964230023
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bias mitigation methods for binary classification decision-making systems
have been widely researched due to the ever-growing importance of designing
fair machine learning processes that are impartial and do not discriminate
against individuals or groups based on protected personal characteristics. In
this paper, we present a structured overview of the research landscape for bias
mitigation methods, report on their benefits and limitations, and provide
recommendations for the development of future bias mitigation methods for
binary classification.
- Abstract(参考訳): 二項分類決定システムにおけるバイアス軽減手法は、不公平で保護された個人的特性に基づいて個人やグループを差別しない公平な機械学習プロセスの設計の重要性がますます高まっているため、広く研究されている。
本稿では,バイアス緩和手法の研究状況の概要を構造化し,そのメリットと限界について報告し,二項分類のための将来のバイアス緩和手法の開発を推奨する。
関連論文リスト
- Be Aware of the Neighborhood Effect: Modeling Selection Bias under Interference [50.95521705711802]
従来の研究では、予測モデルの偏りのない学習を実現するために、選択バイアスに対処することに注力してきた。
本稿では、因果推論の観点から、近隣効果を干渉問題として公式に定式化する。
本稿では,近隣効果の存在下で選択バイアスに対処できる新しい理想的損失を提案する。
論文 参考訳(メタデータ) (2024-04-30T15:20:41Z) - Consumer-side Fairness in Recommender Systems: A Systematic Survey of
Methods and Evaluation [1.4123323039043334]
機械学習手法における差別意識の高まりは、学界と産業の両方を動機付け、レコメンデーションシステムにおける公正性の確保について研究した。
推薦制度では、そのような問題は職業推薦によってよく例示されており、歴史的データの偏見は、1つの性別から低い賃金、あるいはステレオタイプの普及に関する推薦制度につながる可能性がある。
本調査は、リコメンデーションシステムにおける消費者側の公正性に関する現在の研究の体系的概要と議論である。
論文 参考訳(メタデータ) (2023-05-16T10:07:41Z) - Evaluating Disentanglement in Generative Models Without Knowledge of
Latent Factors [71.79984112148865]
本稿では,学習中に提示される学習力学に基づいて生成モデルのランキング付けを行う手法を提案する。
本手法は,近年の解離の理論的特徴から着想を得たものであり,その根底にある潜伏因子の監督は不要である。
論文 参考訳(メタデータ) (2022-10-04T17:27:29Z) - Bias Mitigation for Machine Learning Classifiers: A Comprehensive Survey [30.637712832450525]
ML分類器のバイアス軽減に関する合計341の論文を収集する。
本論文では,既存のバイアス緩和手法について検討する。
収集した知見に基づいて,新たなバイアス緩和手法の開発と評価を行う上で,実践者を支援することを望む。
論文 参考訳(メタデータ) (2022-07-14T17:16:45Z) - fairlib: A Unified Framework for Assessing and Improving Classification
Fairness [66.27822109651757]
Fairlibは、分類の公平さを評価し改善するためのオープンソースのフレームワークである。
我々は、前処理、訓練時間、後処理を含む14のデバイアス化手法を実装した。
組み込まれたメトリクスは、最も一般的に使用されるフェアネス基準をカバーし、フェアネス評価のためにさらに一般化およびカスタマイズすることができる。
論文 参考訳(メタデータ) (2022-05-04T03:50:23Z) - Guided Semi-Supervised Non-negative Matrix Factorization on Legal
Documents [12.213208807541895]
本稿では,分類とトピックモデリングの両方を行う手法,すなわち,半教師付き非負行列因子分解法(GSSNMF)を提案する。
本稿では,カリフォルニア・インノシエンス・プロジェクト(California Innocence Project)が提供する法的文書への適用を通じて,本手法の性能を検証した。
論文 参考訳(メタデータ) (2022-01-31T16:21:51Z) - On robust risk-based active-learning algorithms for enhanced decision
support [0.0]
分類モデルは、構造的健康モニタリング(SHM)システムやデジタルツインなどの物理資産管理技術の基本的な構成要素である。
本稿では,サンプリングバイアスの効果に対処する2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2022-01-07T17:25:41Z) - Discriminative Attribution from Counterfactuals [64.94009515033984]
本稿では,特徴属性と反実的説明を組み合わせたニューラルネットワークの解釈可能性について述べる。
本手法は,特徴属性法の性能を客観的に評価するために有効であることを示す。
論文 参考訳(メタデータ) (2021-09-28T00:53:34Z) - Binary Classification from Multiple Unlabeled Datasets via Surrogate Set
Classification [94.55805516167369]
我々は m 個の U 集合を $mge2$ で二進分類する新しい手法を提案する。
我々のキーとなる考え方は、サロゲート集合分類(SSC)と呼ばれる補助的分類タスクを考えることである。
論文 参考訳(メタデータ) (2021-02-01T07:36:38Z) - One-vs.-One Mitigation of Intersectional Bias: A General Method to
Extend Fairness-Aware Binary Classification [0.48733623015338234]
1-vs.ワン・マイティゲーション(英: One-vs. One Mitigation)は、二項分類のためのフェアネス認識機械学習と、センシティブ属性に関連する各サブグループの比較プロセスである。
本手法は,すべての設定において従来の手法よりも交叉バイアスを緩和する。
論文 参考訳(メタデータ) (2020-10-26T11:35:39Z) - Deep Learning feature selection to unhide demographic recommender
systems factors [63.732639864601914]
行列分解モデルは意味的知識を含まない因子を生成する。
DeepUnHideは、協調フィルタリングレコメンデータシステムにおいて、ユーザとアイテムファクタから、人口統計情報を抽出することができる。
論文 参考訳(メタデータ) (2020-06-17T17:36:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。