論文の概要: A survey on bias in machine learning research
- arxiv url: http://arxiv.org/abs/2308.11254v1
- Date: Tue, 22 Aug 2023 07:56:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-23 18:39:05.520441
- Title: A survey on bias in machine learning research
- Title(参考訳): 機械学習研究におけるバイアスに関する調査
- Authors: Agnieszka Miko{\l}ajczyk-Bare{\l}a, Micha{\l} Grochowski
- Abstract要約: 機械学習におけるバイアスに関する現在の研究は、しばしば公正に焦点を当て、バイアスの根源や原因を見下ろしている。
本稿は、データやモデルにおけるバイアスやエラーの潜在的な源として分類を提供することによって、研究におけるバイアスに関する過去の文献間のギャップを埋めることを目的としている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current research on bias in machine learning often focuses on fairness, while
overlooking the roots or causes of bias. However, bias was originally defined
as a "systematic error," often caused by humans at different stages of the
research process. This article aims to bridge the gap between past literature
on bias in research by providing taxonomy for potential sources of bias and
errors in data and models. The paper focus on bias in machine learning
pipelines. Survey analyses over forty potential sources of bias in the machine
learning (ML) pipeline, providing clear examples for each. By understanding the
sources and consequences of bias in machine learning, better methods can be
developed for its detecting and mitigating, leading to fairer, more
transparent, and more accurate ML models.
- Abstract(参考訳): 機械学習におけるバイアスに関する現在の研究は、しばしば公正に焦点を当て、バイアスの根源や原因を見下ろしている。
しかしながら、偏見はもともと「体系的な誤り」として定義され、しばしば研究過程の異なる段階の人間が引き起こした。
本稿は,データとモデルの潜在的なバイアス源と誤差の分類を提供することにより,研究におけるバイアスに関する過去の文献間のギャップを埋めることを目的とする。
論文は機械学習パイプラインのバイアスに焦点を当てている。
機械学習(ML)パイプラインにおける40の潜在的なバイアス源に関する調査分析は、それぞれに明確な例を提供している。
機械学習におけるバイアスの原因と結果を理解することによって、その検出と緩和のためにより良い方法が開発され、より公平で透明性があり、より正確なMLモデルが得られる。
関連論文リスト
- REFINE-LM: Mitigating Language Model Stereotypes via Reinforcement Learning [18.064064773660174]
本稿では、強化学習を用いて様々なバイアスを微調整せずに処理する脱バイアス法REFINE-LMを紹介する。
LMの単語確率分布の上に簡単なモデルをトレーニングすることにより、バイアス強化学習法により、人間のアノテーションを使わずにモデルの偏りを抑えることができる。
複数のLMを含む多種多様なモデルで行った実験により,本手法は,LMの性能を維持しながら,ステレオタイプバイアスを著しく低減することを示した。
論文 参考訳(メタデータ) (2024-08-18T14:08:31Z) - Current Topological and Machine Learning Applications for Bias Detection
in Text [4.799066966918178]
本研究はRedditBiasデータベースを用いてテキストバイアスの分析を行う。
BERTおよびRoBERTaの変種を含む4つの変圧器モデルについて検討した。
発見によるとBERT、特にミニBERTはバイアス分類に優れており、多言語モデルは遅延している。
論文 参考訳(メタデータ) (2023-11-22T16:12:42Z) - Dissecting Causal Biases [0.0]
本稿では,トレーニングデータの生成方法や収集方法に起因したバイアスのクラスに焦点を当てる。
バイアスの4つの源、すなわち、境界、選択、測定、相互作用が考慮されている。
論文 参考訳(メタデータ) (2023-10-20T09:12:10Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Mitigating Bias for Question Answering Models by Tracking Bias Influence [84.66462028537475]
本稿では,複数選択QAモデルのバイアスを軽減するためのBMBIを提案する。
バイアスのある例から学んだ場合、モデルがよりバイアスに傾くように傾くという直感に基づいて、クエリインスタンスのバイアスレベルを測定します。
本手法は,複数のバイアスカテゴリにまたがる複数のQA定式化に適用可能であることを示す。
論文 参考訳(メタデータ) (2023-10-13T00:49:09Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - Pseudo Bias-Balanced Learning for Debiased Chest X-ray Classification [57.53567756716656]
本研究では, バイアスラベルを正確に把握せず, 脱バイアス胸部X線診断モデルの開発について検討した。
本稿では,まずサンプルごとのバイアスラベルをキャプチャし,予測する新しいアルゴリズム,擬似バイアスバランス学習を提案する。
提案手法は他の最先端手法よりも一貫した改善を実現した。
論文 参考訳(メタデータ) (2022-03-18T11:02:18Z) - Learning from others' mistakes: Avoiding dataset biases without modeling
them [111.17078939377313]
最先端自然言語処理(NLP)モデルは、意図したタスクをターゲットとする機能ではなく、データセットのバイアスや表面形状の相関をモデル化することを学ぶことが多い。
これまでの研究は、バイアスに関する知識が利用できる場合に、これらの問題を回避するための効果的な方法を示してきた。
本稿では,これらの問題点を無視する学習モデルについて述べる。
論文 参考訳(メタデータ) (2020-12-02T16:10:54Z) - Learning from Failure: Training Debiased Classifier from Biased
Classifier [76.52804102765931]
ニューラルネットワークは、所望の知識よりも学習が簡単である場合にのみ、素早い相関に依存することを学習していることを示す。
本稿では,一対のニューラルネットワークを同時にトレーニングすることで,障害に基づくデバイアス化手法を提案する。
本手法は,合成データセットと実世界のデータセットの両方において,各種バイアスに対するネットワークのトレーニングを大幅に改善する。
論文 参考訳(メタデータ) (2020-07-06T07:20:29Z) - Underestimation Bias and Underfitting in Machine Learning [2.639737913330821]
機械学習におけるアルゴリズムバイアスと呼ばれるものは、トレーニングデータの歴史的なバイアスによるものである。
時には、アルゴリズム自体によってバイアスがもたらされる(あるいは少なくとも悪化する)ことがある。
本稿では,分類アルゴリズムのバイアスに寄与する要因を理解するための初期研究について報告する。
論文 参考訳(メタデータ) (2020-05-18T20:01:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。