論文の概要: Improving QA Generalization by Concurrent Modeling of Multiple Biases
- arxiv url: http://arxiv.org/abs/2010.03338v1
- Date: Wed, 7 Oct 2020 11:18:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 23:10:32.898454
- Title: Improving QA Generalization by Concurrent Modeling of Multiple Biases
- Title(参考訳): 複数のビアーゼの同時モデリングによるQA一般化の改善
- Authors: Mingzhu Wu, Nafise Sadat Moosavi, Andreas R\"uckl\'e and Iryna
Gurevych
- Abstract要約: 既存のNLPデータセットには、モデルが容易に活用できる様々なバイアスが含まれており、対応する評価セット上で高いパフォーマンスを達成することができる。
本稿では、トレーニングデータにおける複数のバイアスの同時モデリングにより、ドメイン内およびドメイン外両方のデータセットのパフォーマンスを改善するための一般的なフレームワークを提案する。
我々は,様々な領域の学習データと異なる強度の複数のバイアスを持つ抽出的質問応答の枠組みを広く評価した。
- 参考スコア(独自算出の注目度): 61.597362592536896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing NLP datasets contain various biases that models can easily exploit
to achieve high performances on the corresponding evaluation sets. However,
focusing on dataset-specific biases limits their ability to learn more
generalizable knowledge about the task from more general data patterns. In this
paper, we investigate the impact of debiasing methods for improving
generalization and propose a general framework for improving the performance on
both in-domain and out-of-domain datasets by concurrent modeling of multiple
biases in the training data. Our framework weights each example based on the
biases it contains and the strength of those biases in the training data. It
then uses these weights in the training objective so that the model relies less
on examples with high bias weights. We extensively evaluate our framework on
extractive question answering with training data from various domains with
multiple biases of different strengths. We perform the evaluations in two
different settings, in which the model is trained on a single domain or
multiple domains simultaneously, and show its effectiveness in both settings
compared to state-of-the-art debiasing methods.
- Abstract(参考訳): 既存のNLPデータセットには、モデルが容易に活用できる様々なバイアスが含まれている。
しかし、データセット固有のバイアスに注目することは、より一般的なデータパターンからタスクに関するより一般的な知識を学ぶ能力を制限する。
本稿では,一般化改善のためのデバイアス手法の影響を調査し,トレーニングデータにおける複数のバイアスの同時モデリングにより,ドメイン内データセットとドメイン外データセットの両方のパフォーマンスを向上させる汎用フレームワークを提案する。
私たちのフレームワークは、トレーニングデータに含まれるバイアスとバイアスの強さに基づいて、各例を重み付けします。
そして、これらの重みをトレーニング目的に使用することで、モデルがバイアス重みのある例に依存しないようにします。
様々な領域の学習データと異なる強度の複数のバイアスを持つ抽出質問応答の枠組みを広く評価した。
モデルが1つのドメインまたは複数のドメインで同時にトレーニングされる2つの異なる設定で評価を行い、その効果を最先端のデバイアス法と比較した。
関連論文リスト
- Mitigating Representation Bias in Action Recognition: Algorithms and
Benchmarks [76.35271072704384]
ディープラーニングモデルは、稀なシーンやオブジェクトを持つビデオに適用すると、パフォーマンスが悪くなります。
この問題にはアルゴリズムとデータセットの2つの異なる角度から対処する。
偏りのある表現は、他のデータセットやタスクに転送するとより一般化できることを示す。
論文 参考訳(メタデータ) (2022-09-20T00:30:35Z) - On Modality Bias Recognition and Reduction [70.69194431713825]
マルチモーダル分類の文脈におけるモダリティバイアス問題について検討する。
本稿では,各ラベルの特徴空間を適応的に学習するプラグアンドプレイ損失関数法を提案する。
本手法は, ベースラインに比べ, 顕著な性能向上を実現している。
論文 参考訳(メタデータ) (2022-02-25T13:47:09Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Does Data Repair Lead to Fair Models? Curating Contextually Fair Data To
Reduce Model Bias [10.639605996067534]
コンテキスト情報は、より優れた表現を学び、精度を向上させるために、ディープニューラルネットワーク(DNN)にとって貴重なキューである。
COCOでは、多くの対象カテゴリーは、男性よりも男性の方がはるかに高い共起性を持ち、男性に有利なDNNの予測を偏見を与える可能性がある。
本研究では, 変動係数を用いたデータ修復アルゴリズムを導入し, 保護されたクラスに対して, 公平かつ文脈的にバランスの取れたデータをキュレートする。
論文 参考訳(メタデータ) (2021-10-20T06:00:03Z) - Self-balanced Learning For Domain Generalization [64.99791119112503]
ドメインの一般化は、モデルが未知の統計を持つ対象のドメインに一般化できるように、マルチドメインのソースデータの予測モデルを学ぶことを目的としている。
既存のアプローチのほとんどは、ソースデータがドメインとクラスの両方の観点からバランスよく調整されているという前提の下で開発されている。
本稿では,多領域ソースデータの分布の違いによるバイアスを軽減するために,損失の重み付けを適応的に学習する自己均衡型領域一般化フレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-31T03:17:54Z) - Regularizing Models via Pointwise Mutual Information for Named Entity
Recognition [17.767466724342064]
ドメイン内での性能を向上しつつ、一般化能力を高めるために、PMI(Pointwise Mutual Information)を提案する。
提案手法により,ベンチマークデータセットの単語とラベルの相関度を高く抑えることができる。
長い名前と複雑な構造を持つエンティティに対して、これらのエンティティは協調的あるいは特別な文字の偏りによって予測できる。
論文 参考訳(メタデータ) (2021-04-15T05:47:27Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。