論文の概要: Feature-Level Debiased Natural Language Understanding
- arxiv url: http://arxiv.org/abs/2212.05421v1
- Date: Sun, 11 Dec 2022 06:16:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 16:13:45.825599
- Title: Feature-Level Debiased Natural Language Understanding
- Title(参考訳): 特徴レベル劣化自然言語理解
- Authors: Yougang Lyu, Piji Li, Yechang Yang, Maarten de Rijke, Pengjie Ren,
Yukun Zhao, Dawei Yin, Zhaochun Ren
- Abstract要約: 既存の自然言語理解(NLU)モデルは、特定のデータセットで高いパフォーマンスを達成するために、データセットバイアスに依存することが多い。
本稿では, バイアスの潜在特性を緩和し, バイアスの動的性質を無視するために, DCT(Debiasing contrastive learning)を提案する。
DCTは、ディストリビューション内のパフォーマンスを維持しながら、アウトオブディストリビューションデータセットの最先端のベースラインを上回ります。
- 参考スコア(独自算出の注目度): 86.8751772146264
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing natural language understanding (NLU) models often rely on dataset
biases rather than intended task-relevant features to achieve high performance
on specific datasets. As a result, these models perform poorly on datasets
outside the training distribution. Some recent studies address the above issue
by reducing the weights of biased samples during the training process. However,
these methods still encode biased latent features in representations and
neglect the dynamic nature of bias, which hinders model prediction. We propose
an NLU debiasing method, named debiasing contrastive learning (DCT), to
simultaneously alleviate the above problems based on contrastive learning. We
devise a debiasing positive sampling strategy to mitigate biased latent
features by selecting the least similar biased positive samples. We also
propose a dynamic negative sampling strategy to capture the dynamic influence
of biases by employing a bias-only model to dynamically select the most similar
biased negative samples. We conduct experiments on three NLU benchmark
datasets. Experimental results show that DCT outperforms state-of-the-art
baselines on out-of-distribution datasets while maintaining in-distribution
performance. We also verify that DCT can reduce biased latent features from the
model's representations.
- Abstract(参考訳): 既存の自然言語理解(NLU)モデルは、特定のデータセット上で高いパフォーマンスを達成するために、意図されたタスク関連機能ではなく、データセットバイアスに依存することが多い。
その結果、これらのモデルはトレーニングディストリビューション以外のデータセットではパフォーマンスが低下する。
最近の研究では、トレーニングプロセス中に偏りのあるサンプルの重量を減らすことでこの問題に対処している。
しかしながら、これらの手法は、モデル予測を妨げるバイアスの動的性質を無視し、表現におけるバイアス付き潜伏特徴を符号化している。
本研究では,DCT(Debiasing contrastive Learning)と命名されたNLU脱バイアス法を提案する。
我々は, バイアスの少ない正のサンプルを選択することで, バイアスのある潜在特徴を緩和する, バイアスの少ない正のサンプリング戦略を考案した。
また, バイアスのみのモデルを用いて, 最もよく似たバイアスサンプルを動的に選択することで, バイアスの動的影響を捉える動的負サンプリング戦略を提案する。
3つのNLUベンチマークデータセットで実験を行う。
実験の結果,dctは分散性能を維持しつつ,分散外データセットの最先端ベースラインを上回ることがわかった。
また,DCTがモデル表現からバイアスのある潜在特徴を低減できることを確認した。
関連論文リスト
- Enhancing Intrinsic Features for Debiasing via Investigating Class-Discerning Common Attributes in Bias-Contrastive Pair [36.221761997349795]
ディープニューラルネットワークは、データセットバイアスの存在下でターゲットクラスと急激な相関を持つバイアス特性に依存している。
本稿では,本質的特徴の領域を示す空間的指示を明示的に提示する手法を提案する。
実験により, 種々のバイアス重大度を有する合成および実世界のデータセットに対して, 最先端の性能を達成できることが実証された。
論文 参考訳(メタデータ) (2024-04-30T04:13:14Z) - Improving Bias Mitigation through Bias Experts in Natural Language
Understanding [10.363406065066538]
補助モデルと主モデルの間に二項分類器を導入するデバイアス化フレームワークを提案する。
提案手法は補助モデルのバイアス識別能力を向上させる。
論文 参考訳(メタデータ) (2023-12-06T16:15:00Z) - IBADR: an Iterative Bias-Aware Dataset Refinement Framework for
Debiasing NLU models [52.03761198830643]
IBADR(Iterative Bias-Aware dataset Refinement framework)を提案する。
まず、プール内のサンプルのバイアス度を定量化するために浅いモデルを訓練する。
次に、各サンプルにバイアス度を表すバイアス指標をペアにして、これらの拡張サンプルを使用してサンプルジェネレータを訓練する。
このようにして、このジェネレータは、バイアスインジケータとサンプルの対応関係を効果的に学習することができる。
論文 参考訳(メタデータ) (2023-11-01T04:50:38Z) - Echoes: Unsupervised Debiasing via Pseudo-bias Labeling in an Echo
Chamber [17.034228910493056]
本稿では,既存のバイアスモデルがトレーニングデータにおけるバイアス強調サンプルに過度に適合していることを明らかにする実験的検討を行った。
本研究では、バイアスモデルとターゲットモデルを異なる戦略で訓練するEchoesという、単純で効果的な手法を提案する。
提案手法は,既存の合成データセットと実世界のデータセットのベースラインと比較して,優れたデバイアス化結果が得られる。
論文 参考訳(メタデータ) (2023-05-06T13:13:18Z) - Delving into Identify-Emphasize Paradigm for Combating Unknown Bias [52.76758938921129]
同定精度を高めるため,有効バイアス強調スコアリング法(ECS)を提案する。
また, マイニングされたバイアスアライメントとバイアスコンプリケート試料のコントリビューションのバランスをとるために, 勾配アライメント(GA)を提案する。
様々な環境で複数のデータセットで実験を行い、提案されたソリューションが未知のバイアスの影響を軽減することを実証した。
論文 参考訳(メタデータ) (2023-02-22T14:50:24Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Learning Debiased Models with Dynamic Gradient Alignment and
Bias-conflicting Sample Mining [39.00256193731365]
ディープニューラルネットワークは、堅牢性、一般化、公正性をモデル化するのに有害なデータセットバイアスに悩まされている。
難解な未知のバイアスと戦うための2段階のデバイアス方式を提案する。
論文 参考訳(メタデータ) (2021-11-25T14:50:10Z) - Towards Robustifying NLI Models Against Lexical Dataset Biases [94.79704960296108]
本稿では、語彙的データセットバイアスに対するモデル強化のための、データレベルとモデルレベルのデバイアス法の両方について検討する。
まず、データ拡張と拡張によってデータセットをデバイアスするが、この方法でモデルバイアスを完全に除去することはできないことを示す。
第2のアプローチでは、バーオブワードのサブモデルを使用して、バイアスを悪用する可能性のある機能をキャプチャし、元のモデルがこれらのバイアス付き機能を学ぶのを防ぐ。
論文 参考訳(メタデータ) (2020-05-10T17:56:10Z) - Mind the Trade-off: Debiasing NLU Models without Degrading the
In-distribution Performance [70.31427277842239]
信頼性正則化という新しいデバイアス化手法を導入する。
モデルがバイアスを悪用するのを防ぐと同時に、トレーニングのすべての例から学ぶのに十分なインセンティブを得られるようにします。
提案手法を3つのNLUタスクで評価し,前者とは対照的に,アウト・オブ・ディストリビューション・データセットの性能が向上することを示す。
論文 参考訳(メタデータ) (2020-05-01T11:22:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。