論文の概要: More Data Can Lead Us Astray: Active Data Acquisition in the Presence of
Label Bias
- arxiv url: http://arxiv.org/abs/2207.07723v1
- Date: Fri, 15 Jul 2022 19:30:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-19 18:39:41.074353
- Title: More Data Can Lead Us Astray: Active Data Acquisition in the Presence of
Label Bias
- Title(参考訳): より多くのデータが私たちを驚かせる - ラベルバイアスの存在下でのアクティブデータ取得
- Authors: Yunyi Li, Maria De-Arteaga, Maytal Saar-Tsechansky
- Abstract要約: 提案されたバイアス緩和戦略は、一般的に観察されたラベルに示されるバイアスを見落としている。
まず,教師あり学習システムのコンテキストにおけるラベルバイアスについて概説する。
次に、ラベルバイアスを見渡すと、より多くのデータを集めることでバイアスが増大し、データ収集プロセスで観測されたラベルに依存する公正な制約が問題に対処できないことを実証的に示します。
- 参考スコア(独自算出の注目度): 7.506786114760462
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An increased awareness concerning risks of algorithmic bias has driven a
surge of efforts around bias mitigation strategies. A vast majority of the
proposed approaches fall under one of two categories: (1) imposing algorithmic
fairness constraints on predictive models, and (2) collecting additional
training samples. Most recently and at the intersection of these two
categories, methods that propose active learning under fairness constraints
have been developed. However, proposed bias mitigation strategies typically
overlook the bias presented in the observed labels. In this work, we study
fairness considerations of active data collection strategies in the presence of
label bias. We first present an overview of different types of label bias in
the context of supervised learning systems. We then empirically show that, when
overlooking label bias, collecting more data can aggravate bias, and imposing
fairness constraints that rely on the observed labels in the data collection
process may not address the problem. Our results illustrate the unintended
consequences of deploying a model that attempts to mitigate a single type of
bias while neglecting others, emphasizing the importance of explicitly
differentiating between the types of bias that fairness-aware algorithms aim to
address, and highlighting the risks of neglecting label bias during data
collection.
- Abstract(参考訳): アルゴリズムバイアスのリスクに対する認識が高まり、バイアス緩和戦略に関する取り組みが急増している。
提案手法の大部分は,(1)予測モデルにアルゴリズム的公正性制約を課すこと,(2)追加のトレーニングサンプルの収集という2つのカテゴリに分類される。
近年,これら2つのカテゴリの交点において,公平性制約の下でアクティブラーニングを提案する手法が開発されている。
しかし、提案されたバイアス緩和戦略は一般に観測されたラベルに示されるバイアスを見落としている。
本研究では,ラベルバイアスの存在下でのアクティブデータ収集戦略の公平性を考察する。
まず,教師付き学習システムの文脈において,異なる種類のラベルバイアスについて概観する。
次に,ラベルバイアスを克服すると,より多くのデータ収集がバイアスを悪化させ,データ収集プロセスで観測されたラベルに依存する公正な制約が問題に対処できないことを実証的に示す。
提案手法は,1種類のバイアスを軽減し,他のバイアスを無視し,フェアネス認識アルゴリズムが対処しようとするバイアスの種類を明示的に区別することの重要性を強調し,データ収集中にラベルバイアスを無視するリスクを強調する。
関連論文リスト
- Mitigating Label Bias in Machine Learning: Fairness through Confident
Learning [22.031325797588476]
偏見のないラベルが潜在的なバイアスを持つエージェントによって上書きされると、識別が生じることがある。
本稿では,自信ある学習の枠組みの中で,最も公平なインスタンスをフィルタリングすることで,バイアスを排除できることを実証する。
論文 参考訳(メタデータ) (2023-12-14T08:55:38Z) - Improving Bias Mitigation through Bias Experts in Natural Language
Understanding [10.363406065066538]
補助モデルと主モデルの間に二項分類器を導入するデバイアス化フレームワークを提案する。
提案手法は補助モデルのバイアス識別能力を向上させる。
論文 参考訳(メタデータ) (2023-12-06T16:15:00Z) - Causality and Independence Enhancement for Biased Node Classification [56.38828085943763]
各種グラフニューラルネットワーク(GNN)に適用可能な新しい因果性・独立性向上(CIE)フレームワークを提案する。
提案手法は,ノード表現レベルでの因果的特徴と突発的特徴を推定し,突発的相関の影響を緩和する。
我々のアプローチCIEは、GNNの性能を大幅に向上するだけでなく、最先端の debiased ノード分類法よりも優れています。
論文 参考訳(メタデータ) (2023-10-14T13:56:24Z) - Delving into Identify-Emphasize Paradigm for Combating Unknown Bias [52.76758938921129]
同定精度を高めるため,有効バイアス強調スコアリング法(ECS)を提案する。
また, マイニングされたバイアスアライメントとバイアスコンプリケート試料のコントリビューションのバランスをとるために, 勾配アライメント(GA)を提案する。
様々な環境で複数のデータセットで実験を行い、提案されたソリューションが未知のバイアスの影響を軽減することを実証した。
論文 参考訳(メタデータ) (2023-02-22T14:50:24Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Prisoners of Their Own Devices: How Models Induce Data Bias in
Performative Prediction [4.874780144224057]
偏見のあるモデルは、社会の特定のグループに不均等に害を与える決定を下すことができる。
多くの作業は静的ML環境での不公平さを測定することに費やされているが、動的でパフォーマンスのよい予測は行っていない。
本稿では,データのバイアスを特徴付ける分類法を提案する。
論文 参考訳(メタデータ) (2022-06-27T10:56:04Z) - Information-Theoretic Bias Reduction via Causal View of Spurious
Correlation [71.9123886505321]
本稿では,スプリアス相関の因果的解釈による情報理論バイアス測定手法を提案する。
本稿では,バイアス正規化損失を含むアルゴリズムバイアスに対する新しいデバイアスフレームワークを提案する。
提案したバイアス測定とデバイアス法は、多様な現実シナリオで検証される。
論文 参考訳(メタデータ) (2022-01-10T01:19:31Z) - Learning Debiased Models with Dynamic Gradient Alignment and
Bias-conflicting Sample Mining [39.00256193731365]
ディープニューラルネットワークは、堅牢性、一般化、公正性をモデル化するのに有害なデータセットバイアスに悩まされている。
難解な未知のバイアスと戦うための2段階のデバイアス方式を提案する。
論文 参考訳(メタデータ) (2021-11-25T14:50:10Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Bias-Tolerant Fair Classification [20.973916494320246]
ラベルバイアスと選択バイアスは、機械学習の結果の公平性を妨げるデータにおける2つの理由である。
本稿では,ラベルバイアスと選択バイアスの影響を受けるデータを用いて,利益を回復しようとするBias-TolerantFAirRegularizedLoss (B-FARL)を提案する。
B-FARLはバイアスデータを入力として取り、公正だが潜伏的なデータで訓練されたデータを近似したモデルを呼び出す。
論文 参考訳(メタデータ) (2021-07-07T13:31:38Z) - Disentangling Sampling and Labeling Bias for Learning in Large-Output
Spaces [64.23172847182109]
異なる負のサンプリングスキームが支配的ラベルと稀なラベルで暗黙的にトレードオフパフォーマンスを示す。
すべてのラベルのサブセットで作業することで生じるサンプリングバイアスと、ラベルの不均衡に起因するデータ固有のラベルバイアスの両方に明示的に対処する統一された手段を提供する。
論文 参考訳(メタデータ) (2021-05-12T15:40:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。