論文の概要: Debiasing Stance Detection Models with Counterfactual Reasoning and
Adversarial Bias Learning
- arxiv url: http://arxiv.org/abs/2212.10392v1
- Date: Tue, 20 Dec 2022 16:20:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 15:38:05.099582
- Title: Debiasing Stance Detection Models with Counterfactual Reasoning and
Adversarial Bias Learning
- Title(参考訳): 反事実推論と逆バイアス学習による姿勢偏差検出モデル
- Authors: Jianhua Yuan and Yanyan Zhao and Bing Qin
- Abstract要約: スタンス検出モデルは、ショートカットとしてテキスト部分のデータセットバイアスに依存する傾向がある。
より正確にバイアスをモデル化するための逆バイアス学習モジュールを提案する。
- 参考スコア(独自算出の注目度): 15.68462203989933
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stance detection models may tend to rely on dataset bias in the text part as
a shortcut and thus fail to sufficiently learn the interaction between the
targets and texts. Recent debiasing methods usually treated features learned by
small models or big models at earlier steps as bias features and proposed to
exclude the branch learning those bias features during inference. However, most
of these methods fail to disentangle the ``good'' stance features and ``bad''
bias features in the text part. In this paper, we investigate how to mitigate
dataset bias in stance detection. Motivated by causal effects, we leverage a
novel counterfactual inference framework, which enables us to capture the
dataset bias in the text part as the direct causal effect of the text on
stances and reduce the dataset bias in the text part by subtracting the direct
text effect from the total causal effect. We novelly model bias features as
features that correlate with the stance labels but fail on intermediate stance
reasoning subtasks and propose an adversarial bias learning module to model the
bias more accurately. To verify whether our model could better model the
interaction between texts and targets, we test our model on recently proposed
test sets to evaluate the understanding of the task from various aspects.
Experiments demonstrate that our proposed method (1) could better model the
bias features, and (2) outperforms existing debiasing baselines on both the
original dataset and most of the newly constructed test sets.
- Abstract(参考訳): スタンス検出モデルは、テキスト部分のデータセットバイアスをショートカットとして依存する傾向があるため、ターゲットとテキスト間のインタラクションを十分に学習できない場合がある。
近年のデバイアス法では,小規模なモデルや大型モデルで学習した特徴をバイアス特性として扱うことが多い。
しかし、これらのメソッドのほとんどは、テキスト部分の ``good'' のスタンス特徴と ``bad'' のバイアス特徴を乱すことができない。
本稿では,姿勢検出におけるデータセットバイアスの軽減方法について検討する。
因果的効果を動機として,テキスト部分のデータセットバイアスをテキストのスタンスに対する直接的な因果的効果として捉え,全因果的効果から直接テキスト効果を減じることによりテキスト部分のデータセットバイアスを低減する,新たな因果的推論フレームワークを活用する。
我々は, バイアス特徴を, 姿勢ラベルに関連付けるが, 中間姿勢推論サブタスクでは失敗する特徴として新規にモデル化し, バイアスをより正確にモデル化するための逆バイアス学習モジュールを提案する。
テキストとターゲット間の相互作用をより良くモデル化できるかどうかを検証するため,最近提案したテストセットを用いて,タスクの理解を様々な側面から評価する。
実験により,提案手法はバイアス特性をモデル化し,(2)既存のデバイアスベースラインを元のデータセットと新たに構築されたテストセットの双方で上回ることを示した。
関連論文リスト
- Projective Methods for Mitigating Gender Bias in Pre-trained Language Models [10.418595661963062]
プロジェクティブメソッドは実装が高速で、少数の保存されたパラメータを使用し、既存のモデルパラメータを更新しない。
射影法は内在バイアスと下流バイアス軽減の両方に有効であるが, 両者の結果は必ずしも相関しない。
論文 参考訳(メタデータ) (2024-03-27T17:49:31Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - Feature-Level Debiased Natural Language Understanding [86.8751772146264]
既存の自然言語理解(NLU)モデルは、特定のデータセットで高いパフォーマンスを達成するために、データセットバイアスに依存することが多い。
本稿では, バイアスの潜在特性を緩和し, バイアスの動的性質を無視するために, DCT(Debiasing contrastive learning)を提案する。
DCTは、ディストリビューション内のパフォーマンスを維持しながら、アウトオブディストリビューションデータセットの最先端のベースラインを上回ります。
論文 参考訳(メタデータ) (2022-12-11T06:16:14Z) - Mind Your Bias: A Critical Review of Bias Detection Methods for
Contextual Language Models [2.170169149901781]
文脈言語モデルに対する厳密な分析とバイアス検出手法の比較を行う。
私たちの結果は、マイナーな設計と実装の決定(またはエラー)が、導出バイアススコアに大きく、しばしば重大な影響を与えていることを示している。
論文 参考訳(メタデータ) (2022-11-15T19:27:54Z) - Less Learn Shortcut: Analyzing and Mitigating Learning of Spurious
Feature-Label Correlation [44.319739489968164]
ディープニューラルネットワークは、タスクを理解するのではなく、意思決定をするためのショートカットとしてデータセットバイアスを取ることが多い。
本研究では,モデルがバイアスデータ分布から学習する単語特徴とラベルとの素早い相関に着目した。
本手法は, 偏りのある例と下級者の偏り度を定量的に評価する学習戦略である。
論文 参考訳(メタデータ) (2022-05-25T09:08:35Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Double Perturbation: On the Robustness of Robustness and Counterfactual
Bias Evaluation [109.06060143938052]
テストデータセットを超えたモデル弱点を明らかにするための"ダブル摂動"フレームワークを提案する。
この枠組みを,モデルの頑健さと英語における反事実バイアスの分析に使用される2つの摂動に基づくアプローチに応用する。
論文 参考訳(メタデータ) (2021-04-12T06:57:36Z) - Towards Robustifying NLI Models Against Lexical Dataset Biases [94.79704960296108]
本稿では、語彙的データセットバイアスに対するモデル強化のための、データレベルとモデルレベルのデバイアス法の両方について検討する。
まず、データ拡張と拡張によってデータセットをデバイアスするが、この方法でモデルバイアスを完全に除去することはできないことを示す。
第2のアプローチでは、バーオブワードのサブモデルを使用して、バイアスを悪用する可能性のある機能をキャプチャし、元のモデルがこれらのバイアス付き機能を学ぶのを防ぐ。
論文 参考訳(メタデータ) (2020-05-10T17:56:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。