論文の概要: Relevance-guided Supervision for OpenQA with ColBERT
- arxiv url: http://arxiv.org/abs/2007.00814v2
- Date: Mon, 2 Aug 2021 17:14:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 23:29:40.432121
- Title: Relevance-guided Supervision for OpenQA with ColBERT
- Title(参考訳): ColBERTによるOpenQAの関連ガイダンス
- Authors: Omar Khattab, Christopher Potts, Matei Zaharia
- Abstract要約: ColBERT-QAはスケーラブルなニューラルネットワークモデルColBERTをOpenQAに適合させる。
ColBERTは、質問と通過の間のきめ細かい相互作用を生成する。
これにより、Natural Questions、SQuAD、TriviaQAのOpenQA検索が大幅に改善される。
- 参考スコア(独自算出の注目度): 27.599190047511033
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Systems for Open-Domain Question Answering (OpenQA) generally depend on a
retriever for finding candidate passages in a large corpus and a reader for
extracting answers from those passages. In much recent work, the retriever is a
learned component that uses coarse-grained vector representations of questions
and passages. We argue that this modeling choice is insufficiently expressive
for dealing with the complexity of natural language questions. To address this,
we define ColBERT-QA, which adapts the scalable neural retrieval model ColBERT
to OpenQA. ColBERT creates fine-grained interactions between questions and
passages. We propose an efficient weak supervision strategy that iteratively
uses ColBERT to create its own training data. This greatly improves OpenQA
retrieval on Natural Questions, SQuAD, and TriviaQA, and the resulting system
attains state-of-the-art extractive OpenQA performance on all three datasets.
- Abstract(参考訳): Open-Domain Question Answering (OpenQA) のシステムは一般に、大きなコーパス内の候補パスを見つけるためのレトリバーと、それらのパスから回答を抽出するリーダに依存している。
より最近の研究で、レトリバーは、質問や通路の粗粒度ベクトル表現を使用する学習コンポーネントである。
このモデリングの選択は、自然言語の問題の複雑さを扱うには不十分な表現であると主張する。
そこで我々は、スケーラブルなニューラルネットワークモデルColBERTをOpenQAに適応させるColBERT-QAを定義する。
ColBERTは、質問と通過の間のきめ細かい相互作用を生成する。
我々は,colbert を反復的に使用して独自のトレーニングデータを作成する,効率的な弱い監督戦略を提案する。
これにより、Natural Questions、SQuAD、TriviaQAのOpenQA検索が大幅に改善され、結果のシステムは3つのデータセットすべてに対して最先端の抽出性能が得られる。
関連論文リスト
- GSQA: An End-to-End Model for Generative Spoken Question Answering [54.418723701886115]
本稿では,システムに抽象的推論を強制するGSQA(Generative Spoken Question Answering)モデルを提案する。
本モデルでは, 抽出QAデータセットにおいて, 従来の抽出モデルよりも3%上回っている。
我々のGSQAモデルは、幅広い質問に一般化する可能性を示し、それによって、抽象的QAの音声質問応答能力をさらに拡張する。
論文 参考訳(メタデータ) (2023-12-15T13:33:18Z) - Open-Set Knowledge-Based Visual Question Answering with Inference Paths [79.55742631375063]
知識に基づく視覚的質問回答(KB-VQA)の目的は、外部知識ベースの助けを借りて質問に対する正しい回答を提供することである。
KB-VQA, Graph pATH ranker (GATHER for brevity) の新しいレトリバーランカパラダイムを提案する。
具体的には、グラフの構築、プルーニング、パスレベルのランク付けが含まれており、正確な回答を検索するだけでなく、推論パスを提供して推論プロセスを説明する。
論文 参考訳(メタデータ) (2023-10-12T09:12:50Z) - Multifaceted Improvements for Conversational Open-Domain Question
Answering [54.913313912927045]
対話型オープンドメイン質問回答(MICQA)のための多面的改善フレームワークを提案する。
第一に、提案したKL分割に基づく正規化は、検索と解答のためのより良い質問理解をもたらすことができる。
第二に、追加されたポストランカモジュールは、より関連性の高いパスをトップにプッシュし、2アスペクトの制約で読者に選択できる。
第3に、十分に設計されたカリキュラム学習戦略は、訓練と推論の黄金の通路設定のギャップを効果的に狭め、黄金の通路支援なしで真の答えを見つけることを奨励する。
論文 参考訳(メタデータ) (2022-04-01T07:54:27Z) - Relation-Guided Pre-Training for Open-Domain Question Answering [67.86958978322188]
複雑なオープンドメイン問題を解決するためのRGPT-QA(Relation-Guided Pre-Training)フレームワークを提案する。
RGPT-QAは, 自然質問, TriviaQA, WebQuestionsにおいて, Exact Matchの精度が2.2%, 2.4%, 6.3%向上したことを示す。
論文 参考訳(メタデータ) (2021-09-21T17:59:31Z) - When Retriever-Reader Meets Scenario-Based Multiple-Choice Questions [15.528174963480614]
そこで本研究では,単語重み付け機構を用いて関連ラベルのみを暗黙的に管理する,QAVESと呼ばれる共同レトリバー・リーダーモデルを提案する。
QAVESは3つのSQAデータセットにおいて、複数の質問に対する強いベースラインを著しく上回る。
論文 参考訳(メタデータ) (2021-08-31T14:32:04Z) - UNIQORN: Unified Question Answering over RDF Knowledge Graphs and Natural Language Text [20.1784368017206]
知識グラフのようなRDFデータに対する質問応答は大幅に進歩している。
IRとNLPのコミュニティはテキストによるQAに対処してきたが、そのようなシステムは意味データや知識をほとんど利用していない。
本稿では,RDFデータセットとテキストコーパスを併用した複雑な質問をシームレスに操作する手法を提案する。
論文 参考訳(メタデータ) (2021-08-19T10:50:52Z) - ComQA:Compositional Question Answering via Hierarchical Graph Neural
Networks [47.12013005600986]
我々は,120万以上の人間ラベル質問を含む大規模構成質問応答データセットを提案する。
ComQA問題に対処するために,低レベル語から高レベル語までの文書を表す階層型グラフニューラルネットワークを提案する。
提案モデルは,先行する機械読解法や事前学習法に比べて大幅に改善する。
論文 参考訳(メタデータ) (2021-01-16T08:23:27Z) - Open Question Answering over Tables and Text [55.8412170633547]
オープンな質問応答(QA)では、質問に対する回答は、質問に対する回答を含む可能性のある文書を検索して分析することによって生成される。
ほとんどのオープンQAシステムは、構造化されていないテキストからのみ情報を取得することを検討している。
我々は,このタスクの性能を評価するために,新しい大規模データセット Open Table-and-Text Question Answering (OTT-QA) を提案する。
論文 参考訳(メタデータ) (2020-10-20T16:48:14Z) - Fluent Response Generation for Conversational Question Answering [15.826109118064716]
本稿では,SEQ2SEQ NLGアプローチで応答をシチュレートする手法を提案する。
我々は、エンドツーエンドシステムのトレーニングデータを生成するためにデータ拡張を使用します。
論文 参考訳(メタデータ) (2020-05-21T04:57:01Z) - Harvesting and Refining Question-Answer Pairs for Unsupervised QA [95.9105154311491]
教師なし質問回答(QA)を改善するための2つのアプローチを提案する。
まず、ウィキペディアから語彙的・構文的に異なる質問を抽出し、質問応答対のコーパスを自動的に構築する(RefQAと名づけられる)。
第2に、より適切な回答を抽出するためにQAモデルを活用し、RefQA上でデータを反復的に洗練する。
論文 参考訳(メタデータ) (2020-05-06T15:56:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。