論文の概要: SPARTA: Efficient Open-Domain Question Answering via Sparse Transformer
Matching Retrieval
- arxiv url: http://arxiv.org/abs/2009.13013v1
- Date: Mon, 28 Sep 2020 02:11:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 20:57:09.307806
- Title: SPARTA: Efficient Open-Domain Question Answering via Sparse Transformer
Matching Retrieval
- Title(参考訳): SPARTA: Sparse Transformer Matching Retrievalによる効率的なオープンドメイン質問応答
- Authors: Tiancheng Zhao, Xiaopeng Lu, Kyusong Lee
- Abstract要約: SPARTAは,オープンドメイン質問応答の性能,一般化,解釈可能性を示す新しいニューラル検索手法である。
SPARTAはインバージョンインデックスとして効率的に実装可能なスパース表現を学習する。
我々は4つのオープンドメイン質問応答(OpenQA)タスクと11の検索質問応答(ReQA)タスクに対するアプローチを検証した。
- 参考スコア(独自算出の注目度): 24.77260903221371
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce SPARTA, a novel neural retrieval method that shows great promise
in performance, generalization, and interpretability for open-domain question
answering. Unlike many neural ranking methods that use dense vector nearest
neighbor search, SPARTA learns a sparse representation that can be efficiently
implemented as an Inverted Index. The resulting representation enables scalable
neural retrieval that does not require expensive approximate vector search and
leads to better performance than its dense counterpart. We validated our
approaches on 4 open-domain question answering (OpenQA) tasks and 11 retrieval
question answering (ReQA) tasks. SPARTA achieves new state-of-the-art results
across a variety of open-domain question answering tasks in both English and
Chinese datasets, including open SQuAD, Natuarl Question, CMRC and etc.
Analysis also confirms that the proposed method creates human interpretable
representation and allows flexible control over the trade-off between
performance and efficiency.
- Abstract(参考訳): 本稿では,open-domain question answeringの性能,一般化,解釈性に優れたニューラル検索手法であるspartaを提案する。
SPARTAは、高密度ベクトル近接探索を用いる多くのニューラルランキング法とは異なり、インバートインデックスとして効率的に実装可能なスパース表現を学習する。
結果として得られる表現は、高価な近似ベクトル探索を必要としないスケーラブルなニューラルネットワーク検索を可能にする。
我々は4つのオープンドメイン質問応答(OpenQA)タスクと11の検索質問応答(ReQA)タスクに対するアプローチを検証する。
SPARTAは、オープンSQuAD、Natuarl Question、CMRCなど、英語と中国語のデータセットで、さまざまなオープンドメインの質問応答タスクにまたがって、最先端の新たな結果を達成する。
また,提案手法が人間の解釈可能な表現を生成し,性能と効率のトレードオフを柔軟に制御できることを確認した。
関連論文リスト
- pEBR: A Probabilistic Approach to Embedding Based Retrieval [4.8338111302871525]
埋め込み検索は、クエリとアイテムの両方の共有セマンティック表現空間を学習することを目的としている。
現在の産業実践では、検索システムは典型的には、異なるクエリに対して一定数のアイテムを検索する。
論文 参考訳(メタデータ) (2024-10-25T07:14:12Z) - Early Exit Strategies for Approximate k-NN Search in Dense Retrieval [10.48678957367324]
アーリーエグジットのための最先端のA-kNNを構築し,忍耐の概念に基づく教師なし手法を提案する。
我々は,A-kNNの効率を最大5倍の高速化で向上すると同時に,無視可能な効率損失を達成できることを示す。
論文 参考訳(メタデータ) (2024-08-09T10:17:07Z) - Building Interpretable and Reliable Open Information Retriever for New
Domains Overnight [67.03842581848299]
情報検索は、オープンドメイン質問応答(QA)など、多くのダウンストリームタスクにとって重要な要素である。
本稿では、エンティティ/イベントリンクモデルとクエリ分解モデルを用いて、クエリの異なる情報単位により正確にフォーカスする情報検索パイプラインを提案する。
より解釈可能で信頼性が高いが,提案したパイプラインは,5つのIRおよびQAベンチマークにおける通過カバレッジと記述精度を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-08-09T07:47:17Z) - EfficientQA : a RoBERTa Based Phrase-Indexed Question-Answering System [0.0]
本稿では,言語モデルの自然言語理解を,質問や回答候補を表す密接なベクトルに移す可能性について検討する。
提案モデルでは,Phrase-Indexed Question Answering (PIQA) における最先端結果が,精度1.3ポイント,f1スコア1.4ポイントで達成されている。
論文 参考訳(メタデータ) (2021-01-06T17:46:05Z) - Cross-Domain Generalization Through Memorization: A Study of Nearest
Neighbors in Neural Duplicate Question Detection [72.01292864036087]
重複質問検出(DQD)は,コミュニティの効率向上と自動質問応答システムの実現に重要である。
我々は、DQDのクロスドメイン一般化のために、ニューラル表現を活用し、近接する隣人を研究する。
StackExchange、Spring、Quoraの各データセットの異なるクロスドメインシナリオにおいて、このメソッドの堅牢なパフォーマンスを観察します。
論文 参考訳(メタデータ) (2020-11-22T19:19:33Z) - Global Optimization of Objective Functions Represented by ReLU Networks [77.55969359556032]
ニューラルネットワークは複雑で非敵対的な関数を学ぶことができ、安全クリティカルな文脈でそれらの正しい振る舞いを保証することは困難である。
ネットワーク内の障害を見つけるための多くのアプローチ(例えば、敵の例)があるが、これらは障害の欠如を保証できない。
本稿では,最適化プロセスを検証手順に統合し,本手法よりも優れた性能を実現する手法を提案する。
論文 参考訳(メタデータ) (2020-10-07T08:19:48Z) - Tradeoffs in Sentence Selection Techniques for Open-Domain Question
Answering [54.541952928070344]
文選択のためのモデルの2つのグループについて述べる。QAベースのアプローチは、解答候補を特定するための完全なQAシステムを実行し、検索ベースのモデルは、各質問に特に関連する各節の一部を見つける。
非常に軽量なQAモデルは、このタスクではうまく機能するが、検索ベースモデルは高速である。
論文 参考訳(メタデータ) (2020-09-18T23:39:15Z) - Generation-Augmented Retrieval for Open-domain Question Answering [134.27768711201202]
GAR(Generation-Augmented Retrieval)は、オープンドメインの質問に答える機能である。
クエリーに対して多様なコンテキストを生成することは、結果の融合が常により良い検索精度をもたらすので有益であることを示す。
GARは、抽出読取装置を備えた場合、抽出QA設定の下で、自然質問およびトリビアQAデータセットの最先端性能を達成する。
論文 参考訳(メタデータ) (2020-09-17T23:08:01Z) - Dense Passage Retrieval for Open-Domain Question Answering [49.028342823838486]
本研究では,高密度表現のみを用いて検索を実践可能であることを示す。
我々の高密度レトリバーは、上位20経路の精度で9%-19%の絶対値で強力なルセンゼ-BM25システムより優れています。
論文 参考訳(メタデータ) (2020-04-10T04:53:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。