論文の概要: Unsupervised Learning of Unbiased Visual Representations
- arxiv url: http://arxiv.org/abs/2204.12941v1
- Date: Tue, 26 Apr 2022 10:51:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-29 04:05:35.552397
- Title: Unsupervised Learning of Unbiased Visual Representations
- Title(参考訳): 曖昧な視覚表現の教師なし学習
- Authors: Carlo Alberto Barbano, Enzo Tartaglione, Marco Grangetto
- Abstract要約: ディープニューラルネットワークは、データセットにバイアスが存在するときに堅牢な表現を学習できないことで知られている。
我々は3つのステップからなる完全に教師なしの脱バイアスフレームワークを提案する。
我々は、非バイアスモデルを得るために最先端の教師付き脱バイアス技術を採用している。
- 参考スコア(独自算出の注目度): 10.871587311621974
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks are known for their inability to learn robust
representations when biases exist in the dataset. This results in a poor
generalization to unbiased datasets, as the predictions strongly rely on
peripheral and confounding factors, which are erroneously learned by the
network. Many existing works deal with this issue by either employing an
explicit supervision on the bias attributes, or assuming prior knowledge about
the bias. In this work we study this problem in a more difficult scenario, in
which no explicit annotation about the bias is available, and without any prior
knowledge about its nature. We propose a fully unsupervised debiasing
framework, consisting of three steps: first, we exploit the natural preference
for learning malignant biases, obtaining a bias-capturing model; then, we
perform a pseudo-labelling step to obtain bias labels; finally we employ
state-of-the-art supervised debiasing techniques to obtain an unbiased model.
We also propose a theoretical framework to assess the biasness of a model, and
provide a detailed analysis on how biases affect the training of neural
networks. We perform experiments on synthetic and real-world datasets, showing
that our method achieves state-of-the-art performance in a variety of settings,
sometimes even higher than fully supervised debiasing approaches.
- Abstract(参考訳): 深層ニューラルネットワークは、データセットにバイアスが存在する場合、堅牢な表現を学習できないことで知られている。
この結果、予測はネットワークによって誤って学習される周辺要因や境界要因に強く依存するため、偏りのないデータセットへの一般化は不十分である。
既存の多くの作業は、バイアス属性に対する明示的な監督を採用するか、バイアスに関する事前の知識を仮定することによってこの問題に対処する。
本研究では,バイアスに関する明示的な注釈が得られず,その性質に関する事前知識がなくても,より難しいシナリオでこの問題を研究する。
まず, 悪性バイアスの学習に自然の嗜好を活用し, バイアス捕捉モデルを得る, バイアスラベルを得るための擬似ラベリングステップを実行する, そして最後に, 最先端の教師付きデバイアス手法を用いて非バイアスモデルを得る。
また,モデルのバイアス性を評価するための理論的枠組みを提案し,バイアスがニューラルネットワークのトレーニングに与える影響に関する詳細な分析を行う。
我々は合成データと実世界のデータセットについて実験を行い、この手法が様々な設定で最先端のパフォーマンスを達成できることを示した。
関連論文リスト
- CosFairNet:A Parameter-Space based Approach for Bias Free Learning [1.9116784879310025]
バイアス付きデータに基づいてトレーニングされたディープニューラルネットワークは、意図しない推論ルールを不注意に学習することが多い。
本稿では,モデルのパラメータ空間内で直接バイアスに対処する新しい手法を提案する。
各種合成および実世界のデータセットにおいて,分類精度の向上と偏りの低減効果を示す。
論文 参考訳(メタデータ) (2024-10-19T13:06:40Z) - Model Debiasing by Learnable Data Augmentation [19.625915578646758]
本稿では,トレーニングを正規化可能なデータ拡張戦略を備えた,新しい2段階学習パイプラインを提案する。
合成および現実的なバイアス付きデータセットの実験は、最先端の分類精度を示し、競合する手法より優れている。
論文 参考訳(メタデータ) (2024-08-09T09:19:59Z) - Improving Bias Mitigation through Bias Experts in Natural Language
Understanding [10.363406065066538]
補助モデルと主モデルの間に二項分類器を導入するデバイアス化フレームワークを提案する。
提案手法は補助モデルのバイアス識別能力を向上させる。
論文 参考訳(メタデータ) (2023-12-06T16:15:00Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Self-supervised debiasing using low rank regularization [59.84695042540525]
純粋な相関は、ディープニューラルネットワークの強いバイアスを引き起こし、一般化能力を損なう可能性がある。
ラベルのないサンプルと互換性のある自己監督型脱バイアスフレームワークを提案する。
注目すべきは,提案フレームワークが自己教師付き学習ベースラインの一般化性能を著しく向上させることである。
論文 参考訳(メタデータ) (2022-10-11T08:26:19Z) - Pseudo Bias-Balanced Learning for Debiased Chest X-ray Classification [57.53567756716656]
本研究では, バイアスラベルを正確に把握せず, 脱バイアス胸部X線診断モデルの開発について検討した。
本稿では,まずサンプルごとのバイアスラベルをキャプチャし,予測する新しいアルゴリズム,擬似バイアスバランス学習を提案する。
提案手法は他の最先端手法よりも一貫した改善を実現した。
論文 参考訳(メタデータ) (2022-03-18T11:02:18Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Learning Debiased Models with Dynamic Gradient Alignment and
Bias-conflicting Sample Mining [39.00256193731365]
ディープニューラルネットワークは、堅牢性、一般化、公正性をモデル化するのに有害なデータセットバイアスに悩まされている。
難解な未知のバイアスと戦うための2段階のデバイアス方式を提案する。
論文 参考訳(メタデータ) (2021-11-25T14:50:10Z) - Learning from others' mistakes: Avoiding dataset biases without modeling
them [111.17078939377313]
最先端自然言語処理(NLP)モデルは、意図したタスクをターゲットとする機能ではなく、データセットのバイアスや表面形状の相関をモデル化することを学ぶことが多い。
これまでの研究は、バイアスに関する知識が利用できる場合に、これらの問題を回避するための効果的な方法を示してきた。
本稿では,これらの問題点を無視する学習モデルについて述べる。
論文 参考訳(メタデータ) (2020-12-02T16:10:54Z) - Learning from Failure: Training Debiased Classifier from Biased
Classifier [76.52804102765931]
ニューラルネットワークは、所望の知識よりも学習が簡単である場合にのみ、素早い相関に依存することを学習していることを示す。
本稿では,一対のニューラルネットワークを同時にトレーニングすることで,障害に基づくデバイアス化手法を提案する。
本手法は,合成データセットと実世界のデータセットの両方において,各種バイアスに対するネットワークのトレーニングを大幅に改善する。
論文 参考訳(メタデータ) (2020-07-06T07:20:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。