論文の概要: Brown University at TREC Deep Learning 2019
- arxiv url: http://arxiv.org/abs/2009.04016v1
- Date: Tue, 8 Sep 2020 22:54:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 20:55:28.246428
- Title: Brown University at TREC Deep Learning 2019
- Title(参考訳): ブラウン大学、trec deep learning 2019に参加
- Authors: George Zerveas, Ruochen Zhang, Leila Kim, Carsten Eickhoff
- Abstract要約: 本稿では,ブラウン大学のTREC 2019 Deep Learningトラックへの提出について述べる。
ブラウンのチームは、パス検索タスク(フルランクとリランクを含む)で3位、再ランクの申請のみを考えると2位にランクインした。
- 参考スコア(独自算出の注目度): 11.63256359906015
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper describes Brown University's submission to the TREC 2019 Deep
Learning track. We followed a 2-phase method for producing a ranking of
passages for a given input query: In the the first phase, the user's query is
expanded by appending 3 queries generated by a transformer model which was
trained to rephrase an input query into semantically similar queries. The
expanded query can exhibit greater similarity in surface form and vocabulary
overlap with the passages of interest and can therefore serve as enriched input
to any downstream information retrieval method. In the second phase, we use a
BERT-based model pre-trained for language modeling but fine-tuned for query -
document relevance prediction to compute relevance scores for a set of 1000
candidate passages per query and subsequently obtain a ranking of passages by
sorting them based on the predicted relevance scores. According to the results
published in the official Overview of the TREC Deep Learning Track 2019, our
team ranked 3rd in the passage retrieval task (including full ranking and
re-ranking), and 2nd when considering only re-ranking submissions.
- Abstract(参考訳): 本稿では,ブラウン大学のTREC 2019 Deep Learningトラックへの提出について述べる。
第1フェーズでは、入力クエリを意味的に類似したクエリにリフレーズするようにトレーニングされたトランスフォーマーモデルによって生成された3つのクエリを追加することで、ユーザのクエリを拡張する。
拡張されたクエリは、表面形状と語彙が興味の通過と重なり合うことにより、下流情報検索方法に対する豊富な入力として機能することができる。
第2フェーズでは、言語モデリング用に事前訓練されたBERTベースのモデルを用いて、クエリドキュメント関連度予測を微調整し、クエリ毎の1000の候補パスに対する関連度スコアを計算し、予測された関連度スコアに基づいてそれらをソートすることで、パスのランク付けを行う。
TREC Deep Learning Track 2019のオフィシャルオーバービューで発表された結果によると、私たちのチームは、再ランクの申請のみを考慮すると、パス検索タスク(完全なランク付けと再ランク付けを含む)で3位、そして2位にランク付けしました。
関連論文リスト
- BRIGHT: A Realistic and Challenging Benchmark for Reasoning-Intensive Retrieval [54.54576644403115]
多くの複雑な実世界のクエリは、関連する文書を特定するために詳細な推論を必要とする。
BRIGHTは、関係する文書を検索するために、集中的推論を必要とする最初のテキスト検索ベンチマークである。
私たちのデータセットは、経済学、心理学、数学、コーディングなど、さまざまな領域にまたがる1,384の現実世界のクエリで構成されています。
論文 参考訳(メタデータ) (2024-07-16T17:58:27Z) - Mixed-initiative Query Rewriting in Conversational Passage Retrieval [11.644235288057123]
TREC Conversational Assistance Track (CAsT) 2022の手法と実験について報告する。
本稿では,ユーザとシステム間の混在開始応答に基づいてクエリ書き換えを行う複合開始型クエリ書き換えモジュールを提案する。
TREC CAsT 2021 と TREC CAsT 2022 の2つのデータセットを用いた実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2023-07-17T19:38:40Z) - Query Expansion Using Contextual Clue Sampling with Language Models [69.51976926838232]
本稿では,実効的なフィルタリング戦略と検索した文書の融合の組み合わせを,各文脈の生成確率に基づいて提案する。
我々の語彙マッチングに基づくアプローチは、よく確立された高密度検索モデルDPRと比較して、同様のトップ5/トップ20検索精度と上位100検索精度を実現する。
エンド・ツー・エンドのQAでは、読者モデルも我々の手法の恩恵を受けており、いくつかの競争基準に対してエクサクト・マッチのスコアが最も高い。
論文 参考訳(メタデータ) (2022-10-13T15:18:04Z) - Leveraging Query Resolution and Reading Comprehension for Conversational
Passage Retrieval [6.490148466525755]
本稿では,TREC CAsT 2020トラックでのUvA.ILPSグループ参加について述べる。
パイプラインは, (i) BM25を用いた初期検索モジュールと, (ii) BERTランキングモデルのスコアと, 通過検索のために調整された機械理解モデルのスコアを組み合わせた再ランクモジュールから構成される。
論文 参考訳(メタデータ) (2021-02-17T14:41:57Z) - Open Question Answering over Tables and Text [55.8412170633547]
オープンな質問応答(QA)では、質問に対する回答は、質問に対する回答を含む可能性のある文書を検索して分析することによって生成される。
ほとんどのオープンQAシステムは、構造化されていないテキストからのみ情報を取得することを検討している。
我々は,このタスクの性能を評価するために,新しい大規模データセット Open Table-and-Text Question Answering (OTT-QA) を提案する。
論文 参考訳(メタデータ) (2020-10-20T16:48:14Z) - Pretrained Transformers for Text Ranking: BERT and Beyond [53.83210899683987]
このサーベイは、トランスフォーマーとして知られるニューラルネットワークアーキテクチャによるテキストランキングの概要を提供する。
トランスフォーマーと自己教師型事前学習の組み合わせは、自然言語処理のパラダイムシフトの原因となっている。
論文 参考訳(メタデータ) (2020-10-13T15:20:32Z) - IR-BERT: Leveraging BERT for Semantic Search in Background Linking for
News Articles [2.707154152696381]
本稿では,TREC 2020 News Trackの背景リンクタスクに対する2つのアプローチについて述べる。
このタスクの主な目的は、読者がコンテキストを理解するために参照すべき関連記事のリストを推薦することである。
言語モデルの導入は、クエリ記事の背景だけでなく、コンテキストを理解する上でも、私たちのアプローチに有効であることを実証的に示します。
論文 参考訳(メタデータ) (2020-07-24T16:02:14Z) - Query Resolution for Conversational Search with Limited Supervision [63.131221660019776]
本稿では,双方向トランスフォーマに基づくニューラルクエリ解決モデルQuReTeCを提案する。
我々はQuReTeCが最先端モデルより優れており、また、QuReTeCのトレーニングに必要な人為的なデータ量を大幅に削減するために、我々の遠隔監視手法が有効であることを示す。
論文 参考訳(メタデータ) (2020-05-24T11:37:22Z) - Transformer Based Language Models for Similar Text Retrieval and Ranking [0.0]
本稿では,ニューラルトランスモデルを類似したテキスト検索とランキングに効果的に適用するための新しいアプローチを提案する。
提案手法は, 単語のバッグ・オブ・ワード・ベースのステップを排除し, クエリに共通する非単語がなくても, 精度よく検索結果を検索・ランク付けすることができる。
論文 参考訳(メタデータ) (2020-05-10T06:12:53Z) - Pre-training Tasks for Embedding-based Large-scale Retrieval [68.01167604281578]
本稿では,大規模クエリ文書検索問題について考察する。
クエリ(例えば質問)が与えられたら、関連するドキュメントのセットを大きなドキュメントコーパスから返します。
本稿では, 組込み型トランスフォーマーモデルの学習の鍵となる要素が, 事前学習作業のセットであることを示す。
論文 参考訳(メタデータ) (2020-02-10T16:44:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。