論文の概要: Document Ranking with a Pretrained Sequence-to-Sequence Model
- arxiv url: http://arxiv.org/abs/2003.06713v1
- Date: Sat, 14 Mar 2020 22:29:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 20:39:02.850476
- Title: Document Ranking with a Pretrained Sequence-to-Sequence Model
- Title(参考訳): 事前制約付きシーケンス・ツー・シーケンスモデルによる文書ランク付け
- Authors: Rodrigo Nogueira, Zhiying Jiang, Jimmy Lin
- Abstract要約: 関連ラベルを「ターゲット語」として生成するためにシーケンス・ツー・シーケンス・モデルをどのように訓練するかを示す。
提案手法は,データポーラ方式におけるエンコーダのみのモデルよりも大幅に優れている。
- 参考スコア(独自算出の注目度): 56.44269917346376
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work proposes a novel adaptation of a pretrained sequence-to-sequence
model to the task of document ranking. Our approach is fundamentally different
from a commonly-adopted classification-based formulation of ranking, based on
encoder-only pretrained transformer architectures such as BERT. We show how a
sequence-to-sequence model can be trained to generate relevance labels as
"target words", and how the underlying logits of these target words can be
interpreted as relevance probabilities for ranking. On the popular MS MARCO
passage ranking task, experimental results show that our approach is at least
on par with previous classification-based models and can surpass them with
larger, more-recent models. On the test collection from the TREC 2004 Robust
Track, we demonstrate a zero-shot transfer-based approach that outperforms
previous state-of-the-art models requiring in-dataset cross-validation.
Furthermore, we find that our approach significantly outperforms an
encoder-only model in a data-poor regime (i.e., with few training examples). We
investigate this observation further by varying target words to probe the
model's use of latent knowledge.
- Abstract(参考訳): 本研究は,事前学習されたシーケンス・ツー・シーケンスモデルの文書ランク付けタスクへの新しい適応を提案する。
本手法は,BERTのようなエンコーダのみの事前学習型トランスフォーマアーキテクチャに基づく分類に基づくランキングの定式化とは根本的に異なる。
本稿では,系列列列モデルを用いて関連ラベルを「ターゲット語」として生成する方法と,対象単語のロジットを関連度確率として解釈する方法を示す。
一般的なMS MARCOパスランキングタスクでは、実験結果から、我々のアプローチは、少なくとも以前の分類ベースモデルと同等であり、より大規模で最新のモデルでそれらを上回り得ることが示された。
TREC 2004 Robust Track によるテストコレクションでは、ゼロショット転送に基づくアプローチが、データセットのクロスバリデーションを必要とする従来の最先端モデルより優れていることを示す。
さらに,本手法は,データポーラ方式において,エンコーダのみのモデルを著しく上回る(トレーニング例が少ない)。
本研究は,モデルの潜在知識の利用を探究するために,対象語を変化させることで,この観察をさらに調査する。
関連論文リスト
- StochCA: A Novel Approach for Exploiting Pretrained Models with Cross-Attention [2.66269503676104]
トランスフォーマーアーキテクチャに特有なクロスアテンション(StochCA)と呼ばれる新しい微調整手法を提案する。
この方法はトランスフォーマーの自己保持機構を変更し、微調整中に事前学習したモデルからの知識を選択的に活用する。
両領域の最先端アプローチに対するStochCAの優位性について検討した。
論文 参考訳(メタデータ) (2024-02-25T13:53:49Z) - Consensus-Adaptive RANSAC [104.87576373187426]
本稿では,パラメータ空間の探索を学習する新しいRANSACフレームワークを提案する。
注意機構は、ポイント・ツー・モデル残差のバッチで動作し、軽量のワンステップ・トランスフォーマーで見いだされたコンセンサスを考慮するために、ポイント・ツー・モデル推定状態を更新する。
論文 参考訳(メタデータ) (2023-07-26T08:25:46Z) - Enhancing Few-shot NER with Prompt Ordering based Data Augmentation [59.69108119752584]
本稿では,PODA(Prompt Ordering Based Data Augmentation)手法を提案する。
3つのパブリックNERデータセットの実験結果とさらなる分析により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-05-19T16:25:43Z) - Universal Domain Adaptation from Foundation Models: A Baseline Study [58.51162198585434]
基礎モデルを用いた最先端UniDA手法の実証的研究を行った。
CLIPモデルからターゲット知識を抽出するためのパラメータフリーな手法であるtextitCLIP 蒸留を導入する。
単純な手法ではあるが、ほとんどのベンチマークタスクでは従来の手法よりも優れている。
論文 参考訳(メタデータ) (2023-05-18T16:28:29Z) - Coarse-to-Fine Memory Matching for Joint Retrieval and Classification [0.7081604594416339]
共同検索と分類のための新しいエンドツーエンド言語モデルを提案する。
FEVERファクト検証データセットの標準ブラインドテストセットで評価する。
我々は、モデルを分析・制約するためのこの設定に、模範監査を拡張します。
論文 参考訳(メタデータ) (2020-11-29T05:06:03Z) - Deep Ensembles for Low-Data Transfer Learning [21.578470914935938]
我々は、事前訓練されたモデルからアンサンブルを作成する様々な方法を研究する。
プレトレーニング自体が多様性の優れた源であることが示される。
本稿では,任意の下流データセットに対して,事前学習したモデルのサブセットを効率的に同定する実用的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-14T07:59:00Z) - Pre-training Is (Almost) All You Need: An Application to Commonsense
Reasoning [61.32992639292889]
事前学習されたトランスモデルの微調整は、一般的なNLPタスクを解決するための標準的なアプローチとなっている。
そこで本研究では,可視性ランキングタスクをフルテキスト形式でキャストする新たなスコアリング手法を提案する。
提案手法は, ランダム再起動にまたがって, より安定した学習段階を提供することを示す。
論文 参考訳(メタデータ) (2020-04-29T10:54:40Z) - Meta-Learned Confidence for Few-shot Learning [60.6086305523402]
数ショットのメトリックベースのアプローチのための一般的なトランスダクティブ推論手法は、最も確実なクエリ例の平均で、各クラスのプロトタイプを更新することである。
本稿では,各クエリの信頼度をメタラーニングして,ラベルのないクエリに最適な重みを割り当てる手法を提案する。
4つのベンチマークデータセットに対してメタ学習の信頼度で、少数ショットの学習モデルを検証した。
論文 参考訳(メタデータ) (2020-02-27T10:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。