論文の概要: Open Domain Question Answering over Tables via Dense Retrieval
- arxiv url: http://arxiv.org/abs/2103.12011v1
- Date: Mon, 22 Mar 2021 17:01:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-23 14:39:49.209970
- Title: Open Domain Question Answering over Tables via Dense Retrieval
- Title(参考訳): Dense Retrievalによるテーブル上のオープンドメイン質問応答
- Authors: Jonathan Herzig, Thomas M\"uller, Syrine Krichene, Julian Martin
Eisenschlos
- Abstract要約: 回収者の効果的な事前訓練手順を提示し、採掘されたハードネガティブで検索品質を向上させます。
その結果,検索器は検索結果を72.0から81.1@10に改善し,エンドツーエンドのQAは33.8から37.7まで,BERTベースの検索器よりも向上した。
- 参考スコア(独自算出の注目度): 8.963951462217421
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in open-domain QA have led to strong models based on dense
retrieval, but only focused on retrieving textual passages. In this work, we
tackle open-domain QA over tables for the first time, and show that retrieval
can be improved by a retriever designed to handle tabular context. We present
an effective pre-training procedure for our retriever and improve retrieval
quality with mined hard negatives. As relevant datasets are missing, we extract
a subset of Natural Questions (Kwiatkowski et al., 2019) into a Table QA
dataset. We find that our retriever improves retrieval results from 72.0 to
81.1 recall@10 and end-to-end QA results from 33.8 to 37.7 exact match, over a
BERT based retriever.
- Abstract(参考訳): オープンドメインQAの最近の進歩は、高密度検索に基づく強力なモデルをもたらすが、テキストパスの検索のみに焦点を当てている。
本研究では,テーブル上のオープンドメインQAに初めて取り組み,表のコンテキストを扱うように設計された検索器によって検索を改善することを示す。
本稿では,検索者に対して有効な事前学習手法を提案し,マイニングされたハードネガティブを用いて検索品質を向上させる。
関連するデータセットが欠落しているため、自然質問(Kwiatkowskiら、2019年)のサブセットをテーブルQAデータセットに抽出します。
結果が72.0から81.1 リコール@10に改善され,エンドツーエンドのqa結果が33.8から37.7に向上した。
関連論文リスト
- BRIGHT: A Realistic and Challenging Benchmark for Reasoning-Intensive Retrieval [54.54576644403115]
多くの複雑な実世界のクエリは、関連する文書を特定するために詳細な推論を必要とする。
BRIGHTは、関係する文書を検索するために、集中的推論を必要とする最初のテキスト検索ベンチマークである。
私たちのデータセットは、経済学、心理学、数学、コーディングなど、さまざまな領域にまたがる1,384の現実世界のクエリで構成されています。
論文 参考訳(メタデータ) (2024-07-16T17:58:27Z) - KET-QA: A Dataset for Knowledge Enhanced Table Question Answering [63.56707527868466]
本研究では,TableQAの外部知識源として知識ベース(KB)を用いることを提案する。
すべての質問は、答えるテーブルとサブグラフの両方からの情報を統合する必要がある。
我々は,膨大な知識サブグラフから関連する情報を抽出するために,レトリバー・レゾナー構造パイプラインモデルを設計する。
論文 参考訳(メタデータ) (2024-05-13T18:26:32Z) - Denoising Table-Text Retrieval for Open-Domain Question Answering [6.711626456283439]
テーブルテキストのオープンドメイン質問応答において、検索システムは、テーブルとテキストから関連する証拠を検索し、質問に答える。
従来の研究には、トレーニングデータセットにおける偽陽性ラベルの影響を受けやすい、という2つの共通の課題がある。
本稿では,これらの問題を克服するために,Denoized Table-Text Retriever (DoTTeR)を提案する。
論文 参考訳(メタデータ) (2024-03-26T11:44:49Z) - Ask Optimal Questions: Aligning Large Language Models with Retriever's
Preference in Conversational Search [25.16282868262589]
RetPOは、ターゲット検索システムの好みに合わせて検索クエリを再構成するための言語モデル(LM)を最適化するように設計されている。
我々は、12Kの会話で410K以上のクエリを書き換えるRetrievers' Feedbackと呼ばれる大規模なデータセットを構築した。
このモデルにより,最近の2つの対話型検索ベンチマークにおいて,最先端の性能が得られた。
論文 参考訳(メタデータ) (2024-02-19T04:41:31Z) - MURRE: Multi-Hop Table Retrieval with Removal for Open-Domain Text-to-SQL [51.48239006107272]
MURRE (Multi-hop table search with removal) は、未検索のテーブルへ誘導するために、質問から以前検索した情報を削除する。
2つのオープンドメインのテキスト・ツー・レトリバーデータセットの実験は、以前の最先端結果よりも平均5.7%改善したことを示している。
論文 参考訳(メタデータ) (2024-02-16T13:14:35Z) - CONQRR: Conversational Query Rewriting for Retrieval with Reinforcement
Learning [16.470428531658232]
本研究では,会話型質問を独立した質問に書き換えるクエリ書き換えモデルCONQRRを提案する。
CONQRR は最近のオープンドメイン CQA データセットで最先端の結果が得られることを示す。
論文 参考訳(メタデータ) (2021-12-16T01:40:30Z) - Learning to Retrieve Passages without Supervision [58.31911597824848]
オープンドメイン質問応答(ODQA)のためのダンスレトリバーは,問合せペアの大規模データセットをトレーニングすることで,優れた性能を発揮することが示されている。
そこで本研究では,自己教師型で高密度検索が学べるかどうかを考察し,アノテーションを使わずに効果的に適用する。
論文 参考訳(メタデータ) (2021-12-14T19:18:08Z) - Relation-Guided Pre-Training for Open-Domain Question Answering [67.86958978322188]
複雑なオープンドメイン問題を解決するためのRGPT-QA(Relation-Guided Pre-Training)フレームワークを提案する。
RGPT-QAは, 自然質問, TriviaQA, WebQuestionsにおいて, Exact Matchの精度が2.2%, 2.4%, 6.3%向上したことを示す。
論文 参考訳(メタデータ) (2021-09-21T17:59:31Z) - Open Question Answering over Tables and Text [55.8412170633547]
オープンな質問応答(QA)では、質問に対する回答は、質問に対する回答を含む可能性のある文書を検索して分析することによって生成される。
ほとんどのオープンQAシステムは、構造化されていないテキストからのみ情報を取得することを検討している。
我々は,このタスクの性能を評価するために,新しい大規模データセット Open Table-and-Text Question Answering (OTT-QA) を提案する。
論文 参考訳(メタデータ) (2020-10-20T16:48:14Z) - Relevance-guided Supervision for OpenQA with ColBERT [27.599190047511033]
ColBERT-QAはスケーラブルなニューラルネットワークモデルColBERTをOpenQAに適合させる。
ColBERTは、質問と通過の間のきめ細かい相互作用を生成する。
これにより、Natural Questions、SQuAD、TriviaQAのOpenQA検索が大幅に改善される。
論文 参考訳(メタデータ) (2020-07-01T23:50:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。