論文の概要: Improving Question Answering Model Robustness with Synthetic Adversarial
Data Generation
- arxiv url: http://arxiv.org/abs/2104.08678v1
- Date: Sun, 18 Apr 2021 02:00:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-22 13:54:07.983823
- Title: Improving Question Answering Model Robustness with Synthetic Adversarial
Data Generation
- Title(参考訳): 合成逆データ生成による質問応答モデルロバストネスの改善
- Authors: Max Bartolo, Tristan Thrush, Robin Jia, Sebastian Riedel, Pontus
Stenetorp, Douwe Kiela
- Abstract要約: 最先端の質問応答モデルは、様々な敵の攻撃を受けやすいままであり、人間レベルの言語理解を得るには程遠い。
提案されている1つの方法は動的逆データ収集であり、人間のアノテータがループ内のモデルが失敗する例を作成しようとするものである。
本研究では,合成逆データ生成パイプラインを構成する複数の回答選択,質問生成,フィルタリング手法について検討する。
合成データと人為的データの両方で訓練されたモデルは、合成逆数データで訓練されていないモデルより優れ、対数上での最先端の結果を得る
- 参考スコア(独自算出の注目度): 41.9785159975426
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the availability of very large datasets and pretrained models,
state-of-the-art question answering models remain susceptible to a variety of
adversarial attacks and are still far from obtaining human-level language
understanding. One proposed way forward is dynamic adversarial data collection,
in which a human annotator attempts to create examples for which a
model-in-the-loop fails. However, this approach comes at a higher cost per
sample and slower pace of annotation, as model-adversarial data requires more
annotator effort to generate. In this work, we investigate several answer
selection, question generation, and filtering methods that form a synthetic
adversarial data generation pipeline that takes human-generated adversarial
samples and unannotated text to create synthetic question-answer pairs. Models
trained on both synthetic and human-generated data outperform models not
trained on synthetic adversarial data, and obtain state-of-the-art results on
the AdversarialQA dataset with overall performance gains of 3.7F1. Furthermore,
we find that training on the synthetic adversarial data improves model
generalisation across domains for non-adversarial data, demonstrating gains on
9 of the 12 datasets for MRQA. Lastly, we find that our models become
considerably more difficult to beat by human adversaries, with a drop in
macro-averaged validated model error rate from 17.6% to 8.8% when compared to
non-augmented models.
- Abstract(参考訳): 非常に大規模なデータセットと事前訓練されたモデルが利用可能であるにもかかわらず、最先端の質問応答モデルは様々な敵の攻撃を受けやすいままであり、人間レベルの言語理解を得るには程遠い。
提案されている1つの方法は動的逆データ収集であり、人間のアノテータがループ内のモデルが失敗する例を作成しようとするものである。
しかし、このアプローチはサンプルあたりのコストが高く、アノテーションのペースが遅くなる。
本研究では,人間生成した対数サンプルと無注釈テキストを用いて合成質問対を生成する合成逆数データ生成パイプラインを構成する,いくつかの回答選択,質問生成,フィルタリング手法について検討する。
合成データと人工データの両方でトレーニングされたモデルは、合成逆データではトレーニングされていないモデルよりも優れており、全体的なパフォーマンス向上は3.7f1である。
さらに, 合成逆数データのトレーニングにより, 非逆数データの領域間のモデルの一般化が向上し, MRQAの12データセットのうち9データセットのゲインが得られた。
最後に、我々のモデルが人間の敵に打ち勝つのがかなり難しくなり、マクロ平均の検証済みモデルのエラー率は17.6%から8.8%に低下した。
関連論文リスト
- Chatting Up Attachment: Using LLMs to Predict Adult Bonds [0.0]
GPT-4とClaude 3 Opusを使用して、さまざまなプロファイル、子供時代の記憶、アタッチメントスタイルを持つ大人をシミュレートするエージェントを作成します。
我々は,同一の面接プロトコルを施行し,精神保健専門家によって分析・ラベル付けされた9人のヒトの転写データセットを用いて,我々のモデルを評価した。
以上の結果から,合成データのみを用いたモデルトレーニングは,人間のデータを用いたモデルトレーニングに匹敵する性能を発揮することが示唆された。
論文 参考訳(メタデータ) (2024-08-31T04:29:19Z) - Self-Consuming Generative Models with Curated Data Provably Optimize Human Preferences [20.629333587044012]
本研究では,データキュレーションが生成モデルの反復的再学習に与える影響について検討する。
報奨モデルに従ってデータをキュレートすると、反復的再訓練手順の期待報酬が最大になることを示す。
論文 参考訳(メタデータ) (2024-06-12T21:28:28Z) - Beyond Human Data: Scaling Self-Training for Problem-Solving with Language Models [115.501751261878]
人為的なデータに基づく微調整言語モデル(LM)が普及している。
我々は、スカラーフィードバックにアクセス可能なタスクにおいて、人間のデータを超えることができるかどうか検討する。
ReST$EM$はモデルサイズに好適にスケールし、人間のデータのみによる微調整を大幅に上回っていることがわかった。
論文 参考訳(メタデータ) (2023-12-11T18:17:43Z) - Let's Synthesize Step by Step: Iterative Dataset Synthesis with Large
Language Models by Extrapolating Errors from Small Models [69.76066070227452]
※データ合成*はラベル付きデータの少ない小さなモデルをトレーニングするための有望な方法です。
本稿では,この分散ギャップを縮めるデータ合成フレームワークであるStep* (**S3**) による合成ステップを提案する。
提案手法は,合成データセットと実データとのギャップを小さくすることで,小型モデルの性能を向上させる。
論文 参考訳(メタデータ) (2023-10-20T17:14:25Z) - On the Stability of Iterative Retraining of Generative Models on their own Data [56.153542044045224]
混合データセットに対する生成モデルの訓練が与える影響について検討する。
まず、初期生成モデルがデータ分布を十分に近似する条件下で反復学習の安定性を実証する。
我々は、正規化フローと最先端拡散モデルを繰り返し訓練することにより、合成画像と自然画像の両方に関する我々の理論を実証的に検証する。
論文 参考訳(メタデータ) (2023-09-30T16:41:04Z) - Synthetic data, real errors: how (not) to publish and use synthetic data [86.65594304109567]
生成過程が下流MLタスクにどのように影響するかを示す。
本稿では、生成プロセスモデルパラメータの後方分布を近似するために、Deep Generative Ensemble (DGE)を導入する。
論文 参考訳(メタデータ) (2023-05-16T07:30:29Z) - On the Efficacy of Adversarial Data Collection for Question Answering:
Results from a Large-Scale Randomized Study [65.17429512679695]
逆データ収集(ADC)では、人間の労働力がモデルとリアルタイムで対話し、誤った予測を誘発する例を作成しようとする。
ADCの直感的な魅力にも拘わらず、敵対的データセットのトレーニングがより堅牢なモデルを生成するかどうかは不明だ。
論文 参考訳(メタデータ) (2021-06-02T00:48:33Z) - Training Question Answering Models From Synthetic Data [26.91650323300262]
本研究は, 人工問合せと人為的問合せのギャップを狭めることを目的としている。
我々は830億のパラメータ GPT-2 モデルにより生成された合成コーパスから質問や回答を合成する。
人間の監督にアクセスできず、他のモデルのみにアクセスできないため、完全にモデル生成データに基づいて、アート質問応答ネットワークの状態をトレーニングすることが可能です。
論文 参考訳(メタデータ) (2020-02-22T01:49:27Z) - Beat the AI: Investigating Adversarial Human Annotation for Reading
Comprehension [27.538957000237176]
人間は、モデルが正しい答えに失敗するように、逆さまに質問を作成する。
アノテーションループでは,より強力なモデルで36,000のサンプルを収集する。
その結果,非対向的なサンプルの学習は,非対向的なデータセットに強い一般化をもたらすことがわかった。
より強力なモデルは、より弱いループモデルで収集されたデータセットから学習できることが分かっています。
論文 参考訳(メタデータ) (2020-02-02T00:22:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。