論文の概要: Neural Retrieval for Question Answering with Cross-Attention Supervised
Data Augmentation
- arxiv url: http://arxiv.org/abs/2009.13815v1
- Date: Tue, 29 Sep 2020 07:02:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 06:10:31.926960
- Title: Neural Retrieval for Question Answering with Cross-Attention Supervised
Data Augmentation
- Title(参考訳): クロスアテンション監視データ拡張による質問応答のニューラル検索
- Authors: Yinfei Yang, Ning Jin, Kuo Lin, Mandy Guo, Daniel Cer
- Abstract要約: 質問と回答の埋め込みを独立に計算すると、回答に一致する質問に関連する情報の後期融合が生じる。
本稿では,正確な初期核融合モデルを用いた教師付きデータマイニング手法を提案し,効率的な後期核融合検索モデルのトレーニングを改善する。
- 参考スコア(独自算出の注目度): 14.669454236593447
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural models that independently project questions and answers into a shared
embedding space allow for efficient continuous space retrieval from large
corpora. Independently computing embeddings for questions and answers results
in late fusion of information related to matching questions to their answers.
While critical for efficient retrieval, late fusion underperforms models that
make use of early fusion (e.g., a BERT based classifier with cross-attention
between question-answer pairs). We present a supervised data mining method
using an accurate early fusion model to improve the training of an efficient
late fusion retrieval model. We first train an accurate classification model
with cross-attention between questions and answers. The accurate
cross-attention model is then used to annotate additional passages in order to
generate weighted training examples for a neural retrieval model. The resulting
retrieval model with additional data significantly outperforms retrieval models
directly trained with gold annotations on Precision at $N$ (P@N) and Mean
Reciprocal Rank (MRR).
- Abstract(参考訳): 質問や回答を個別に共有埋め込み空間に投影するニューラルネットワークは、大きなコーパスから効率的な連続的な空間検索を可能にする。
質問と回答の埋め込みを独立に計算すると、回答に一致する質問に関連する情報の後期融合が生じる。
効率的な検索には重要であるが、後期融合は早期融合を利用するモデル(例えば、質問と回答のペア間のクロスアテンションを持つBERTベースの分類器)を過小評価する。
本稿では,正確な初期核融合モデルを用いた教師付きデータマイニング手法を提案し,効率的な後期核融合検索モデルのトレーニングを改善する。
まず,質問と回答の相互対応による正確な分類モデルを訓練する。
正確なクロスアテンションモデルは、ニューラルネットワーク検索モデルの重み付きトレーニング例を生成するために追加のパスに注釈をつけるために使用される。
得られたデータによる検索モデルは、Precision(P@N)とMean Reciprocal Rank(MRR)で金のアノテーションで訓練された検索モデルよりも大幅に優れている。
関連論文リスト
- Combating Missing Modalities in Egocentric Videos at Test Time [92.38662956154256]
現実のアプリケーションは、プライバシの懸念、効率性の必要性、ハードウェアの問題により、不完全なモダリティを伴う問題に直面することが多い。
再トレーニングを必要とせずに,テスト時にこの問題に対処する新しい手法を提案する。
MiDlは、欠落したモダリティをテスト時にのみ扱う、自己管理型のオンラインソリューションとしては初めてのものだ。
論文 参考訳(メタデータ) (2024-04-23T16:01:33Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Noisy Self-Training with Synthetic Queries for Dense Retrieval [49.49928764695172]
合成クエリと組み合わせた,ノイズの多い自己学習フレームワークを提案する。
実験結果から,本手法は既存手法よりも一貫した改善が得られた。
我々の手法はデータ効率が良く、競争のベースラインより優れています。
論文 参考訳(メタデータ) (2023-11-27T06:19:50Z) - Phantom Embeddings: Using Embedding Space for Model Regularization in
Deep Neural Networks [12.293294756969477]
機械学習モデルの強みは、データから複雑な関数近似を学ぶ能力に起因している。
複雑なモデルはトレーニングデータを記憶する傾向があり、結果としてテストデータの正規化性能が低下する。
情報豊富な潜伏埋め込みと高いクラス内相関を利用してモデルを正規化するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-04-14T17:15:54Z) - Generating Query Focused Summaries without Fine-tuning the
Transformer-based Pre-trained Models [0.6124773188525718]
新しいデータセットごとに自然言語処理(NLP)モデルを微調整するには、炭素フットプリントの増加とコストの増大に伴う高い計算時間が必要である。
本稿では,MMR(Marginal Maximum Relevance)に基づくアプローチが,事前学習に使用しなかった新しいデータセットから直接,クエリ中心の要約を得る上で有効かどうかを検討する。
実験結果から示すように,MMRに基づく手法では,最も関連性の高い文を要約としてランク付けし,個々の事前学習モデルよりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-03-10T22:40:15Z) - Less is More: Mitigate Spurious Correlations for Open-Domain Dialogue
Response Generation Models by Causal Discovery [52.95935278819512]
本研究で得られたCGDIALOGコーパスに基づくオープンドメイン応答生成モデルのスプリアス相関に関する最初の研究を行った。
因果探索アルゴリズムに着想を得て,反応生成モデルの学習と推論のための新しいモデル非依存手法を提案する。
論文 参考訳(メタデータ) (2023-03-02T06:33:48Z) - Kronecker Factorization for Preventing Catastrophic Forgetting in
Large-scale Medical Entity Linking [7.723047334864811]
医療分野では、タスクのシーケンシャルなトレーニングがモデルをトレーニングする唯一の方法である場合もあります。
破滅的な忘れ物、すなわち、新しいタスクのためにモデルが更新されたとき、以前のタスクの精度が大幅に低下します。
本稿では,この手法が3つのデータセットにまたがる医療機関の重要かつ実証的な課題に有効であることを示す。
論文 参考訳(メタデータ) (2021-11-11T01:51:01Z) - A Relational Model for One-Shot Classification [80.77724423309184]
インダクティブバイアスを組み込んだディープラーニングモデルは,広範なデータ拡張に頼ることなく,サンプル効率のよい学習にメリットをもたらすことを示す。
提案するワンショット分類モデルは,一対の入力を局所的および対的注意の形で関係マッチングする。
論文 参考訳(メタデータ) (2021-11-08T07:53:12Z) - S^3-Rec: Self-Supervised Learning for Sequential Recommendation with
Mutual Information Maximization [104.87483578308526]
本稿では,シーケンスレコメンデーションのための自己改善学習のためのモデルS3-Recを提案する。
そこで本稿では,属性,項目,サブシーケンス,シーケンス間の相関関係を学習するために,4つの補助的自己教師対象を考案する。
6つの実世界のデータセットで実施された大規模な実験は、既存の最先端手法よりも提案手法が優れていることを示す。
論文 参考訳(メタデータ) (2020-08-18T11:44:10Z) - Beat the AI: Investigating Adversarial Human Annotation for Reading
Comprehension [27.538957000237176]
人間は、モデルが正しい答えに失敗するように、逆さまに質問を作成する。
アノテーションループでは,より強力なモデルで36,000のサンプルを収集する。
その結果,非対向的なサンプルの学習は,非対向的なデータセットに強い一般化をもたらすことがわかった。
より強力なモデルは、より弱いループモデルで収集されたデータセットから学習できることが分かっています。
論文 参考訳(メタデータ) (2020-02-02T00:22:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。