論文の概要: Echoes: Unsupervised Debiasing via Pseudo-bias Labeling in an Echo
Chamber
- arxiv url: http://arxiv.org/abs/2305.04043v2
- Date: Wed, 16 Aug 2023 13:51:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-17 17:02:45.956926
- Title: Echoes: Unsupervised Debiasing via Pseudo-bias Labeling in an Echo
Chamber
- Title(参考訳): echoes: echo chamberにおける擬似バイアスラベリングによる教師なしデバイアス
- Authors: Rui Hu, Yahan Tu, Jitao Sang
- Abstract要約: 本稿では,既存のバイアスモデルがトレーニングデータにおけるバイアス強調サンプルに過度に適合していることを明らかにする実験的検討を行った。
本研究では、バイアスモデルとターゲットモデルを異なる戦略で訓練するEchoesという、単純で効果的な手法を提案する。
提案手法は,既存の合成データセットと実世界のデータセットのベースラインと比較して,優れたデバイアス化結果が得られる。
- 参考スコア(独自算出の注目度): 17.034228910493056
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks often learn spurious correlations when exposed to biased
training data, leading to poor performance on out-of-distribution data. A
biased dataset can be divided, according to biased features, into bias-aligned
samples (i.e., with biased features) and bias-conflicting samples (i.e.,
without biased features). Recent debiasing works typically assume that no bias
label is available during the training phase, as obtaining such information is
challenging and labor-intensive. Following this unsupervised assumption,
existing methods usually train two models: a biased model specialized to learn
biased features and a target model that uses information from the biased model
for debiasing. This paper first presents experimental analyses revealing that
the existing biased models overfit to bias-conflicting samples in the training
data, which negatively impacts the debiasing performance of the target models.
To address this issue, we propose a straightforward and effective method called
Echoes, which trains a biased model and a target model with a different
strategy. We construct an "echo chamber" environment by reducing the weights of
samples which are misclassified by the biased model, to ensure the biased model
fully learns the biased features without overfitting to the bias-conflicting
samples. The biased model then assigns lower weights on the bias-conflicting
samples. Subsequently, we use the inverse of the sample weights of the biased
model for training the target model. Experiments show that our approach
achieves superior debiasing results compared to the existing baselines on both
synthetic and real-world datasets. Our code is available at
https://github.com/isruihu/Echoes.
- Abstract(参考訳): ニューラルネットワークは、バイアスのあるトレーニングデータに曝されると、しばしば急激な相関関係を学習する。
バイアス付きデータセットは、バイアス付き特徴に従ってバイアス対応サンプル(バイアス付き特徴を持つ)とバイアス対応サンプル(バイアス付き特徴を持たない)に分けられる。
近年のデバイアス研究は、そのような情報を得ることが困難で労働集約的なため、トレーニング期間中にバイアスラベルが利用できないと仮定している。
この教師なしの仮定に従うと、既存の手法は2つのモデルを訓練する: バイアス付き特徴を学習するためのバイアス付きモデルと、バイアス付きモデルからの情報を使ってバイアスを除去するターゲットモデルである。
本稿では,既存のバイアスモデルがトレーニングデータ中のバイアス強調サンプルに過度に適合していることが,対象モデルの劣化性能に悪影響を及ぼすことを示す実験的検討を行った。
この問題に対処するために,偏りのあるモデルと異なる戦略を持つターゲットモデルを訓練する,echoesと呼ばれる単純かつ効果的な手法を提案する。
偏りのあるモデルによって分類されたサンプルの重みを減らし,偏りのあるモデルが偏りのある特徴を過度に学習することを保証することで,"エコーチャンバー"環境を構築する。
バイアス付きモデルは、バイアス競合サンプルに低い重みを割り当てる。
その後、対象モデルのトレーニングに偏りのあるモデルのサンプル重量の逆を用いる。
実験により,提案手法は,合成データと実世界のデータセットの両方において,既存のベースラインよりも優れたデバイアス結果が得られることが示された。
私たちのコードはhttps://github.com/isruihu/echoesで利用可能です。
関連論文リスト
- CosFairNet:A Parameter-Space based Approach for Bias Free Learning [1.9116784879310025]
バイアス付きデータに基づいてトレーニングされたディープニューラルネットワークは、意図しない推論ルールを不注意に学習することが多い。
本稿では,モデルのパラメータ空間内で直接バイアスに対処する新しい手法を提案する。
各種合成および実世界のデータセットにおいて,分類精度の向上と偏りの低減効果を示す。
論文 参考訳(メタデータ) (2024-10-19T13:06:40Z) - Revisiting the Dataset Bias Problem from a Statistical Perspective [72.94990819287551]
統計的観点から「データセットバイアス」問題を考察する。
問題の主な原因は、クラス属性 u と非クラス属性 b の強い相関関係である。
本稿では,各試料nの目的をフラクタル1p(u_n|b_n)で重み付けするか,その試料をフラクタル1p(u_n|b_n)に比例してサンプリングすることにより,データセットバイアスを軽減することを提案する。
論文 参考訳(メタデータ) (2024-02-05T22:58:06Z) - Improving Bias Mitigation through Bias Experts in Natural Language
Understanding [10.363406065066538]
補助モデルと主モデルの間に二項分類器を導入するデバイアス化フレームワークを提案する。
提案手法は補助モデルのバイアス識別能力を向上させる。
論文 参考訳(メタデータ) (2023-12-06T16:15:00Z) - IBADR: an Iterative Bias-Aware Dataset Refinement Framework for
Debiasing NLU models [52.03761198830643]
IBADR(Iterative Bias-Aware dataset Refinement framework)を提案する。
まず、プール内のサンプルのバイアス度を定量化するために浅いモデルを訓練する。
次に、各サンプルにバイアス度を表すバイアス指標をペアにして、これらの拡張サンプルを使用してサンプルジェネレータを訓練する。
このようにして、このジェネレータは、バイアスインジケータとサンプルの対応関係を効果的に学習することができる。
論文 参考訳(メタデータ) (2023-11-01T04:50:38Z) - Feature-Level Debiased Natural Language Understanding [86.8751772146264]
既存の自然言語理解(NLU)モデルは、特定のデータセットで高いパフォーマンスを達成するために、データセットバイアスに依存することが多い。
本稿では, バイアスの潜在特性を緩和し, バイアスの動的性質を無視するために, DCT(Debiasing contrastive learning)を提案する。
DCTは、ディストリビューション内のパフォーマンスを維持しながら、アウトオブディストリビューションデータセットの最先端のベースラインを上回ります。
論文 参考訳(メタデータ) (2022-12-11T06:16:14Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Learning Debiased Models with Dynamic Gradient Alignment and
Bias-conflicting Sample Mining [39.00256193731365]
ディープニューラルネットワークは、堅牢性、一般化、公正性をモデル化するのに有害なデータセットバイアスに悩まされている。
難解な未知のバイアスと戦うための2段階のデバイアス方式を提案する。
論文 参考訳(メタデータ) (2021-11-25T14:50:10Z) - Learning Debiased Representation via Disentangled Feature Augmentation [19.348340314001756]
本稿では, 様々なバイアスを伴うサンプルを用いたトレーニングが, 脱バイアスに不可欠であることを示す実験的検討を行った。
本稿では, 多様なバイアス分散サンプルを合成するために, 特徴レベルのデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2021-07-03T08:03:25Z) - Learning from others' mistakes: Avoiding dataset biases without modeling
them [111.17078939377313]
最先端自然言語処理(NLP)モデルは、意図したタスクをターゲットとする機能ではなく、データセットのバイアスや表面形状の相関をモデル化することを学ぶことが多い。
これまでの研究は、バイアスに関する知識が利用できる場合に、これらの問題を回避するための効果的な方法を示してきた。
本稿では,これらの問題点を無視する学習モデルについて述べる。
論文 参考訳(メタデータ) (2020-12-02T16:10:54Z) - Towards Robustifying NLI Models Against Lexical Dataset Biases [94.79704960296108]
本稿では、語彙的データセットバイアスに対するモデル強化のための、データレベルとモデルレベルのデバイアス法の両方について検討する。
まず、データ拡張と拡張によってデータセットをデバイアスするが、この方法でモデルバイアスを完全に除去することはできないことを示す。
第2のアプローチでは、バーオブワードのサブモデルを使用して、バイアスを悪用する可能性のある機能をキャプチャし、元のモデルがこれらのバイアス付き機能を学ぶのを防ぐ。
論文 参考訳(メタデータ) (2020-05-10T17:56:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。