論文の概要: Improving Robustness by Augmenting Training Sentences with
Predicate-Argument Structures
- arxiv url: http://arxiv.org/abs/2010.12510v1
- Date: Fri, 23 Oct 2020 16:22:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 22:43:37.854004
- Title: Improving Robustness by Augmenting Training Sentences with
Predicate-Argument Structures
- Title(参考訳): 述語構造による学習文の強化によるロバスト性の向上
- Authors: Nafise Sadat Moosavi, Marcel de Boer, Prasetya Ajie Utama, Iryna
Gurevych
- Abstract要約: データセットバイアスに対するロバスト性を改善する既存のアプローチは、主にトレーニング目標の変更に焦点を当てている。
本稿では,学習データ中の入力文に対応する述語句構造を付加することを提案する。
特定のバイアスを対象とせずに、文の増大は、複数のバイアスに対してトランスフォーマーモデルの堅牢性を向上することを示す。
- 参考スコア(独自算出の注目度): 62.562760228942054
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing NLP datasets contain various biases, and models tend to quickly
learn those biases, which in turn limits their robustness. Existing approaches
to improve robustness against dataset biases mostly focus on changing the
training objective so that models learn less from biased examples. Besides,
they mostly focus on addressing a specific bias, and while they improve the
performance on adversarial evaluation sets of the targeted bias, they may bias
the model in other ways, and therefore, hurt the overall robustness. In this
paper, we propose to augment the input sentences in the training data with
their corresponding predicate-argument structures, which provide a higher-level
abstraction over different realizations of the same meaning and help the model
to recognize important parts of sentences. We show that without targeting a
specific bias, our sentence augmentation improves the robustness of transformer
models against multiple biases. In addition, we show that models can still be
vulnerable to the lexical overlap bias, even when the training data does not
contain this bias, and that the sentence augmentation also improves the
robustness in this scenario. We will release our adversarial datasets to
evaluate bias in such a scenario as well as our augmentation scripts at
https://github.com/UKPLab/data-augmentation-for-robustness.
- Abstract(参考訳): 既存のNLPデータセットには様々なバイアスが含まれており、モデルはこれらのバイアスを素早く学習する傾向にあり、結果的にその堅牢性を制限する。
データセットバイアスに対する堅牢性を改善する既存のアプローチは、主にトレーニング目標の変更に重点を置いている。
さらに、彼らは主に特定のバイアスに対処することに集中し、ターゲットバイアスの敵対的評価セットのパフォーマンスを改善する一方で、他の方法でモデルにバイアスを与える可能性があるため、全体的なロバスト性が損なわれる。
本稿では,学習データ中の入力文を対応する述語-代名詞構造で拡張し,同じ意味の異なる実現に対して高いレベルの抽象化を提供し,モデルの文の重要部分の認識を支援することを提案する。
特定のバイアスを対象とせずに,複数のバイアスに対するトランスフォーマーモデルのロバスト性が向上することを示す。
さらに,学習データにこのバイアスを含まない場合においても,モデルが語彙重複バイアスに対して脆弱であり得ることを示すとともに,このシナリオにおける頑健性も向上することを示す。
このようなシナリオでバイアスを評価するために、敵対的なデータセットをリリースし、https://github.com/ukplab/data-augmentation-for-robustnessで追加スクリプトを作成します。
関連論文リスト
- Model Debiasing by Learnable Data Augmentation [19.625915578646758]
本稿では,トレーニングを正規化可能なデータ拡張戦略を備えた,新しい2段階学習パイプラインを提案する。
合成および現実的なバイアス付きデータセットの実験は、最先端の分類精度を示し、競合する手法より優れている。
論文 参考訳(メタデータ) (2024-08-09T09:19:59Z) - Improving Bias Mitigation through Bias Experts in Natural Language
Understanding [10.363406065066538]
補助モデルと主モデルの間に二項分類器を導入するデバイアス化フレームワークを提案する。
提案手法は補助モデルのバイアス識別能力を向上させる。
論文 参考訳(メタデータ) (2023-12-06T16:15:00Z) - Fighting Bias with Bias: Promoting Model Robustness by Amplifying
Dataset Biases [5.997909991352044]
最近の研究は、トレーニングセットからバイアスのあるサンプルをフィルタリングすることで、頑健でバイアスのないモデルを開発することを試みた。
このようなフィルタリングは、バイアスを克服するモデルの真の能力を曖昧にする可能性がある、と私たちは主張する。
バイアス増幅トレーニングセットとバイアス防止テストセットで定義された評価フレームワークを導入する。
論文 参考訳(メタデータ) (2023-05-30T10:10:42Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - Feature-Level Debiased Natural Language Understanding [86.8751772146264]
既存の自然言語理解(NLU)モデルは、特定のデータセットで高いパフォーマンスを達成するために、データセットバイアスに依存することが多い。
本稿では, バイアスの潜在特性を緩和し, バイアスの動的性質を無視するために, DCT(Debiasing contrastive learning)を提案する。
DCTは、ディストリビューション内のパフォーマンスを維持しながら、アウトオブディストリビューションデータセットの最先端のベースラインを上回ります。
論文 参考訳(メタデータ) (2022-12-11T06:16:14Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Towards Robustifying NLI Models Against Lexical Dataset Biases [94.79704960296108]
本稿では、語彙的データセットバイアスに対するモデル強化のための、データレベルとモデルレベルのデバイアス法の両方について検討する。
まず、データ拡張と拡張によってデータセットをデバイアスするが、この方法でモデルバイアスを完全に除去することはできないことを示す。
第2のアプローチでは、バーオブワードのサブモデルを使用して、バイアスを悪用する可能性のある機能をキャプチャし、元のモデルがこれらのバイアス付き機能を学ぶのを防ぐ。
論文 参考訳(メタデータ) (2020-05-10T17:56:10Z) - Mind the Trade-off: Debiasing NLU Models without Degrading the
In-distribution Performance [70.31427277842239]
信頼性正則化という新しいデバイアス化手法を導入する。
モデルがバイアスを悪用するのを防ぐと同時に、トレーニングのすべての例から学ぶのに十分なインセンティブを得られるようにします。
提案手法を3つのNLUタスクで評価し,前者とは対照的に,アウト・オブ・ディストリビューション・データセットの性能が向上することを示す。
論文 参考訳(メタデータ) (2020-05-01T11:22:55Z) - Avoiding the Hypothesis-Only Bias in Natural Language Inference via
Ensemble Adversarial Training [27.848639511397725]
本研究では, 文表現において, 敵のアンサンブルを用いてバイアスを低減できることを示す。
このアプローチはより堅牢なNLIモデルを生成し、12のデータセットに一般化された以前の非バイアス処理よりも優れています。
論文 参考訳(メタデータ) (2020-04-16T17:37:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。