論文の概要: CausalAPM: Generalizable Literal Disentanglement for NLU Debiasing
- arxiv url: http://arxiv.org/abs/2305.02865v1
- Date: Thu, 4 May 2023 14:22:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-05 15:13:29.432058
- Title: CausalAPM: Generalizable Literal Disentanglement for NLU Debiasing
- Title(参考訳): CausalAPM: NLUデバイアスのための一般化可能なリテラルディスタングル
- Authors: Songyang Gao, Shihan Dou, Junjie Shan, Qi Zhang, Xuanjing Huang
- Abstract要約: 我々は因果推論の観点からデータセットバイアスの原因を分析する。
本稿では,特徴の粒度からバイアス問題を改善するために,一般化可能なリテラル分離フレームワークCausalAPMを提案する。
- 参考スコア(独自算出の注目度): 47.129713744669075
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dataset bias, i.e., the over-reliance on dataset-specific literal heuristics,
is getting increasing attention for its detrimental effect on the
generalization ability of NLU models. Existing works focus on eliminating
dataset bias by down-weighting problematic data in the training process, which
induce the omission of valid feature information while mitigating bias. In this
work, We analyze the causes of dataset bias from the perspective of causal
inference and propose CausalAPM, a generalizable literal disentangling
framework to ameliorate the bias problem from feature granularity. The proposed
approach projects literal and semantic information into independent feature
subspaces, and constrains the involvement of literal information in subsequent
predictions. Extensive experiments on three NLP benchmarks (MNLI, FEVER, and
QQP) demonstrate that our proposed framework significantly improves the OOD
generalization performance while maintaining ID performance.
- Abstract(参考訳): データセットバイアス、すなわちデータセット固有のリテラルヒューリスティックスへの過度な依存は、NLUモデルの一般化能力に対する有害な影響で注目されている。
既存の作業では、トレーニングプロセスにおいて問題のあるデータを低重み付けすることで、データセットバイアスの排除に重点を置いている。
本研究では、因果推論の観点からデータセットバイアスの原因を分析し、特徴粒度からバイアス問題を改善するための一般化可能なリテラル・ディエンタングリングフレームワークであるCausalAPMを提案する。
提案手法ではリテラル情報とセマンティクス情報を独立した機能部分空間に計画し,リテラル情報の関与を制約する。
3つのNLPベンチマーク(MNLI, FEVER, QQP)の大規模な実験により,提案するフレームワークは,ID性能を維持しながらOOD一般化性能を大幅に向上することを示した。
関連論文リスト
- Towards Understanding Task-agnostic Debiasing Through the Lenses of Intrinsic Bias and Forgetfulness [10.081447621656523]
言語モデリング能力に影響を及ぼす影響は、高品質でコンテキストの長いデバイアスコーパスによって緩和することができる。
タスク依存型デバイアスングヒンジの有効性は、下流アプリケーションに使用されるタスク固有データとデバイアスドモデルの両方の量的バイアスレベルに影響を及ぼす。
本稿では,ソーシャル・フェア・デバイアスを下流ファインチューニング,ProSocialTuningに伝達する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-06T15:11:11Z) - Causality and Independence Enhancement for Biased Node Classification [56.38828085943763]
各種グラフニューラルネットワーク(GNN)に適用可能な新しい因果性・独立性向上(CIE)フレームワークを提案する。
提案手法は,ノード表現レベルでの因果的特徴と突発的特徴を推定し,突発的相関の影響を緩和する。
我々のアプローチCIEは、GNNの性能を大幅に向上するだけでなく、最先端の debiased ノード分類法よりも優れています。
論文 参考訳(メタデータ) (2023-10-14T13:56:24Z) - Robust Natural Language Understanding with Residual Attention Debiasing [28.53546504339952]
本稿では,意図しないバイアスを注意から軽減するエンド・ツー・エンド・デバイアス手法を提案する。
実験により、READはショートカットを除去したOODデータ上でのBERTベースのモデルの性能を大幅に改善することが示された。
論文 参考訳(メタデータ) (2023-05-28T04:25:04Z) - Feature-Level Debiased Natural Language Understanding [86.8751772146264]
既存の自然言語理解(NLU)モデルは、特定のデータセットで高いパフォーマンスを達成するために、データセットバイアスに依存することが多い。
本稿では, バイアスの潜在特性を緩和し, バイアスの動的性質を無視するために, DCT(Debiasing contrastive learning)を提案する。
DCTは、ディストリビューション内のパフォーマンスを維持しながら、アウトオブディストリビューションデータセットの最先端のベースラインを上回ります。
論文 参考訳(メタデータ) (2022-12-11T06:16:14Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Learning Bias-Invariant Representation by Cross-Sample Mutual
Information Minimization [77.8735802150511]
対象タスクが誤用したバイアス情報を除去するために,クロスサンプル対逆脱バイアス法(CSAD)を提案する。
相関測定は, 対向的偏り評価において重要な役割を担い, クロスサンプル型相互情報推定器によって行われる。
我々は,提案手法の最先端手法に対する利点を検証するために,公開データセットの徹底的な実験を行った。
論文 参考訳(メタデータ) (2021-08-11T21:17:02Z) - Regularizing Models via Pointwise Mutual Information for Named Entity
Recognition [17.767466724342064]
ドメイン内での性能を向上しつつ、一般化能力を高めるために、PMI(Pointwise Mutual Information)を提案する。
提案手法により,ベンチマークデータセットの単語とラベルの相関度を高く抑えることができる。
長い名前と複雑な構造を持つエンティティに対して、これらのエンティティは協調的あるいは特別な文字の偏りによって予測できる。
論文 参考訳(メタデータ) (2021-04-15T05:47:27Z) - Adversarial Filters of Dataset Biases [96.090959788952]
大規模なニューラルモデルでは、言語とビジョンベンチマークで人間レベルのパフォーマンスが実証されている。
それらの性能は、敵対的またはアウト・オブ・ディストリビューションのサンプルで著しく低下する。
このようなデータセットバイアスを逆フィルタするAFLiteを提案する。
論文 参考訳(メタデータ) (2020-02-10T21:59:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。