論文の概要: Algorithmic Factors Influencing Bias in Machine Learning
- arxiv url: http://arxiv.org/abs/2104.14014v1
- Date: Wed, 28 Apr 2021 20:45:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-01 00:45:45.033792
- Title: Algorithmic Factors Influencing Bias in Machine Learning
- Title(参考訳): 機械学習におけるバイアスのアルゴリズム的要因
- Authors: William Blanzeisky, P\'adraig Cunningham
- Abstract要約: 既約誤差,正規化,特徴およびクラス不均衡が,この過小評価にどのように寄与するかを示す。
本稿は, この過小評価バイアスの影響を, 総合的対策の慎重な管理がいかに改善するかを実証して結論づける。
- 参考スコア(独自算出の注目度): 2.055949720959582
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: It is fair to say that many of the prominent examples of bias in Machine
Learning (ML) arise from bias that is there in the training data. In fact, some
would argue that supervised ML algorithms cannot be biased, they reflect the
data on which they are trained. In this paper we demonstrate how ML algorithms
can misrepresent the training data through underestimation. We show how
irreducible error, regularization and feature and class imbalance can
contribute to this underestimation. The paper concludes with a demonstration of
how the careful management of synthetic counterfactuals can ameliorate the
impact of this underestimation bias.
- Abstract(参考訳): 機械学習(ML)における顕著なバイアスの例の多くは、トレーニングデータにあるバイアスから生じていると言えます。
実際に、教師付きMLアルゴリズムはバイアスがなく、トレーニングされたデータを反映していると主張する人もいるだろう。
本稿では,MLアルゴリズムが過小評価によってトレーニングデータを誤って表現する方法を示す。
既約誤差,正規化,特徴およびクラス不均衡が,この過小評価にどのように寄与するかを示す。
本稿は, この過小評価バイアスの影響を, 総合的対策の慎重な管理がいかに改善するかを実証して結論づける。
関連論文リスト
- Debiasing Machine Unlearning with Counterfactual Examples [31.931056076782202]
我々は、未学習プロセスの背後にある因果要因を分析し、データレベルとアルゴリズムレベルでバイアスを軽減する。
バイアスのあるデータセットによって、忘れるべき知識が消去される、介入に基づくアプローチを導入する。
本手法は,評価指標に基づく既存の機械学習ベースラインよりも優れる。
論文 参考訳(メタデータ) (2024-04-24T09:33:10Z) - Correcting Underrepresentation and Intersectional Bias for Classification [49.1574468325115]
我々は、表現不足のバイアスによって破損したデータから学習する問題を考察する。
偏りのないデータの少ない場合、グループワイドのドロップアウト率を効率的に推定できることが示される。
本アルゴリズムは,有限VC次元のモデルクラスに対して,効率的な学習を可能にする。
論文 参考訳(メタデータ) (2023-06-19T18:25:44Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Understanding Unfairness in Fraud Detection through Model and Data Bias
Interactions [4.159343412286401]
アルゴリズムの不公平性は、データ内のモデルとバイアスの間の相互作用に起因すると我々は主張する。
フェアネスブラインドMLアルゴリズムが示す公平さと正確さのトレードオフに関する仮説を、異なるデータバイアス設定下で検討する。
論文 参考訳(メタデータ) (2022-07-13T15:18:30Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - On Statistical Bias In Active Learning: How and When To Fix It [42.768124675364376]
データのラベル付けが高価な場合には,アクティブな学習が強力なツールになります。
トレーニングデータはもはや人口分布に従わないため、バイアスが発生します。
このバイアスを形式化し、有害であり、時には役に立つ状況を調査します。
論文 参考訳(メタデータ) (2021-01-27T19:52:24Z) - Fairness Constraints in Semi-supervised Learning [56.48626493765908]
我々は,最適化問題として定式化された,公平な半教師付き学習のためのフレームワークを開発する。
偏り・分散・雑音分解による半教師あり学習における識別源を理論的に分析する。
本手法は, 公平な半教師付き学習を達成でき, 公正な教師付き学習よりも精度と公平性のトレードオフが良好である。
論文 参考訳(メタデータ) (2020-09-14T04:25:59Z) - Underestimation Bias and Underfitting in Machine Learning [2.639737913330821]
機械学習におけるアルゴリズムバイアスと呼ばれるものは、トレーニングデータの歴史的なバイアスによるものである。
時には、アルゴリズム自体によってバイアスがもたらされる(あるいは少なくとも悪化する)ことがある。
本稿では,分類アルゴリズムのバイアスに寄与する要因を理解するための初期研究について報告する。
論文 参考訳(メタデータ) (2020-05-18T20:01:56Z) - Leveraging Semi-Supervised Learning for Fairness using Neural Networks [49.604038072384995]
機械学習に基づく意思決定システムの公平性に対する懸念が高まっている。
本稿では,ラベルのないデータから得られるニューラルネットワークを用いた半教師付きアルゴリズムを提案する。
提案したSSFairと呼ばれるモデルは、ラベルのないデータの情報を活用して、トレーニングデータのバイアスを軽減する。
論文 参考訳(メタデータ) (2019-12-31T09:11:26Z) - Recovering from Biased Data: Can Fairness Constraints Improve Accuracy? [11.435833538081557]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、バイアスがあるだけでなく、真のデータ分布に最適な精度を持つ分類器を生成する。
公平性に制約されたERMによるこの問題の是正能力について検討する。
また、トレーニングデータの再重み付け、等化オッド、復号化パリティなど、他のリカバリ手法についても検討する。
論文 参考訳(メタデータ) (2019-12-02T22:00:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。