論文の概要: Brown University at TREC Deep Learning 2019
- arxiv url: http://arxiv.org/abs/2009.04016v1
- Date: Tue, 8 Sep 2020 22:54:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 20:55:28.246428
- Title: Brown University at TREC Deep Learning 2019
- Title(参考訳): ブラウン大学、trec deep learning 2019に参加
- Authors: George Zerveas, Ruochen Zhang, Leila Kim, Carsten Eickhoff
- Abstract要約: 本稿では,ブラウン大学のTREC 2019 Deep Learningトラックへの提出について述べる。
ブラウンのチームは、パス検索タスク(フルランクとリランクを含む)で3位、再ランクの申請のみを考えると2位にランクインした。
- 参考スコア(独自算出の注目度): 11.63256359906015
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper describes Brown University's submission to the TREC 2019 Deep
Learning track. We followed a 2-phase method for producing a ranking of
passages for a given input query: In the the first phase, the user's query is
expanded by appending 3 queries generated by a transformer model which was
trained to rephrase an input query into semantically similar queries. The
expanded query can exhibit greater similarity in surface form and vocabulary
overlap with the passages of interest and can therefore serve as enriched input
to any downstream information retrieval method. In the second phase, we use a
BERT-based model pre-trained for language modeling but fine-tuned for query -
document relevance prediction to compute relevance scores for a set of 1000
candidate passages per query and subsequently obtain a ranking of passages by
sorting them based on the predicted relevance scores. According to the results
published in the official Overview of the TREC Deep Learning Track 2019, our
team ranked 3rd in the passage retrieval task (including full ranking and
re-ranking), and 2nd when considering only re-ranking submissions.
- Abstract(参考訳): 本稿では,ブラウン大学のTREC 2019 Deep Learningトラックへの提出について述べる。
第1フェーズでは、入力クエリを意味的に類似したクエリにリフレーズするようにトレーニングされたトランスフォーマーモデルによって生成された3つのクエリを追加することで、ユーザのクエリを拡張する。
拡張されたクエリは、表面形状と語彙が興味の通過と重なり合うことにより、下流情報検索方法に対する豊富な入力として機能することができる。
第2フェーズでは、言語モデリング用に事前訓練されたBERTベースのモデルを用いて、クエリドキュメント関連度予測を微調整し、クエリ毎の1000の候補パスに対する関連度スコアを計算し、予測された関連度スコアに基づいてそれらをソートすることで、パスのランク付けを行う。
TREC Deep Learning Track 2019のオフィシャルオーバービューで発表された結果によると、私たちのチームは、再ランクの申請のみを考慮すると、パス検索タスク(完全なランク付けと再ランク付けを含む)で3位、そして2位にランク付けしました。
関連論文リスト
- Zero-Shot Listwise Document Reranking with a Large Language Model [58.64141622176841]
本稿では,タスク固有の学習データを用いることなく,言語モデル(LRL)を用いたリスワイズ・リランカを提案する。
3つのTRECウェブサーチデータセットの実験により、LRLは第1段検索結果の再ランク付け時にゼロショットポイントワイズ法より優れるだけでなく、最終段再ランカとしても機能することが示された。
論文 参考訳(メタデータ) (2023-05-03T14:45:34Z) - Query Expansion Using Contextual Clue Sampling with Language Models [69.51976926838232]
本稿では,実効的なフィルタリング戦略と検索した文書の融合の組み合わせを,各文脈の生成確率に基づいて提案する。
我々の語彙マッチングに基づくアプローチは、よく確立された高密度検索モデルDPRと比較して、同様のトップ5/トップ20検索精度と上位100検索精度を実現する。
エンド・ツー・エンドのQAでは、読者モデルも我々の手法の恩恵を受けており、いくつかの競争基準に対してエクサクト・マッチのスコアが最も高い。
論文 参考訳(メタデータ) (2022-10-13T15:18:04Z) - UIUC_BioNLP at SemEval-2021 Task 11: A Cascade of Neural Models for
Structuring Scholarly NLP Contributions [1.5942130010323128]
本稿では,文分類,文認識,三重抽出を行うニューラルネットワークのカスケードを提案する。
BERT-CRFモデルを用いて、コントリビューション文中の関連するフレーズを認識し、特徴付ける。
本システムは第1相評価では第2位,第2相評価では両部で第1位であった。
論文 参考訳(メタデータ) (2021-05-12T05:24:35Z) - Leveraging Query Resolution and Reading Comprehension for Conversational
Passage Retrieval [6.490148466525755]
本稿では,TREC CAsT 2020トラックでのUvA.ILPSグループ参加について述べる。
パイプラインは, (i) BM25を用いた初期検索モジュールと, (ii) BERTランキングモデルのスコアと, 通過検索のために調整された機械理解モデルのスコアを組み合わせた再ランクモジュールから構成される。
論文 参考訳(メタデータ) (2021-02-17T14:41:57Z) - Open Question Answering over Tables and Text [55.8412170633547]
オープンな質問応答(QA)では、質問に対する回答は、質問に対する回答を含む可能性のある文書を検索して分析することによって生成される。
ほとんどのオープンQAシステムは、構造化されていないテキストからのみ情報を取得することを検討している。
我々は,このタスクの性能を評価するために,新しい大規模データセット Open Table-and-Text Question Answering (OTT-QA) を提案する。
論文 参考訳(メタデータ) (2020-10-20T16:48:14Z) - Pretrained Transformers for Text Ranking: BERT and Beyond [53.83210899683987]
このサーベイは、トランスフォーマーとして知られるニューラルネットワークアーキテクチャによるテキストランキングの概要を提供する。
トランスフォーマーと自己教師型事前学習の組み合わせは、自然言語処理のパラダイムシフトの原因となっている。
論文 参考訳(メタデータ) (2020-10-13T15:20:32Z) - IR-BERT: Leveraging BERT for Semantic Search in Background Linking for
News Articles [2.707154152696381]
本稿では,TREC 2020 News Trackの背景リンクタスクに対する2つのアプローチについて述べる。
このタスクの主な目的は、読者がコンテキストを理解するために参照すべき関連記事のリストを推薦することである。
言語モデルの導入は、クエリ記事の背景だけでなく、コンテキストを理解する上でも、私たちのアプローチに有効であることを実証的に示します。
論文 参考訳(メタデータ) (2020-07-24T16:02:14Z) - Query Resolution for Conversational Search with Limited Supervision [63.131221660019776]
本稿では,双方向トランスフォーマに基づくニューラルクエリ解決モデルQuReTeCを提案する。
我々はQuReTeCが最先端モデルより優れており、また、QuReTeCのトレーニングに必要な人為的なデータ量を大幅に削減するために、我々の遠隔監視手法が有効であることを示す。
論文 参考訳(メタデータ) (2020-05-24T11:37:22Z) - Transformer Based Language Models for Similar Text Retrieval and Ranking [0.0]
本稿では,ニューラルトランスモデルを類似したテキスト検索とランキングに効果的に適用するための新しいアプローチを提案する。
提案手法は, 単語のバッグ・オブ・ワード・ベースのステップを排除し, クエリに共通する非単語がなくても, 精度よく検索結果を検索・ランク付けすることができる。
論文 参考訳(メタデータ) (2020-05-10T06:12:53Z) - Pre-training Tasks for Embedding-based Large-scale Retrieval [68.01167604281578]
本稿では,大規模クエリ文書検索問題について考察する。
クエリ(例えば質問)が与えられたら、関連するドキュメントのセットを大きなドキュメントコーパスから返します。
本稿では, 組込み型トランスフォーマーモデルの学習の鍵となる要素が, 事前学習作業のセットであることを示す。
論文 参考訳(メタデータ) (2020-02-10T16:44:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。