論文の概要: Denoising Table-Text Retrieval for Open-Domain Question Answering
- arxiv url: http://arxiv.org/abs/2403.17611v1
- Date: Tue, 26 Mar 2024 11:44:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-27 15:37:32.177180
- Title: Denoising Table-Text Retrieval for Open-Domain Question Answering
- Title(参考訳): オープンドメイン質問応答のためのテーブルテキスト検索
- Authors: Deokhyung Kang, Baikjin Jung, Yunsu Kim, Gary Geunbae Lee,
- Abstract要約: テーブルテキストのオープンドメイン質問応答において、検索システムは、テーブルとテキストから関連する証拠を検索し、質問に答える。
従来の研究には、トレーニングデータセットにおける偽陽性ラベルの影響を受けやすい、という2つの共通の課題がある。
本稿では,これらの問題を克服するために,Denoized Table-Text Retriever (DoTTeR)を提案する。
- 参考スコア(独自算出の注目度): 6.711626456283439
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In table-text open-domain question answering, a retriever system retrieves relevant evidence from tables and text to answer questions. Previous studies in table-text open-domain question answering have two common challenges: firstly, their retrievers can be affected by false-positive labels in training datasets; secondly, they may struggle to provide appropriate evidence for questions that require reasoning across the table. To address these issues, we propose Denoised Table-Text Retriever (DoTTeR). Our approach involves utilizing a denoised training dataset with fewer false positive labels by discarding instances with lower question-relevance scores measured through a false positive detection model. Subsequently, we integrate table-level ranking information into the retriever to assist in finding evidence for questions that demand reasoning across the table. To encode this ranking information, we fine-tune a rank-aware column encoder to identify minimum and maximum values within a column. Experimental results demonstrate that DoTTeR significantly outperforms strong baselines on both retrieval recall and downstream QA tasks. Our code is available at https://github.com/deokhk/DoTTeR.
- Abstract(参考訳): テーブルテキストのオープンドメイン質問応答において、検索システムは、テーブルとテキストから関連する証拠を検索し、質問に答える。
テーブルテキストのオープンドメイン質問応答に関するこれまでの研究には、トレーニングデータセットにおける偽陽性ラベルの影響を受けやすいこと、テーブル全体の推論を必要とする質問に対する適切な証拠の提供に苦慮していること、の2つの共通する課題がある。
これらの問題に対処するため,Denoized Table-Text Retriever (DoTTeR)を提案する。
提案手法では, 偽陽性検出モデルを用いて測定した質問関連スコアの低いインスタンスを破棄することにより, 偽陽性ラベルを少ない偽陽性ラベルで識別した訓練データセットを活用する。
その後、テーブルレベルのランキング情報をレトリバーに統合し、テーブル全体に推論を要求する質問の証拠を見つけるのを支援する。
このランク付け情報を符号化するために、列内の最小値と最大値を特定するランク対応列エンコーダを微調整する。
実験の結果,DoTTeRは検索リコールおよび下流QAタスクにおいて,強いベースラインを著しく上回ることがわかった。
私たちのコードはhttps://github.com/deokhk/DoTTeR.comで公開されています。
関連論文リスト
- KET-QA: A Dataset for Knowledge Enhanced Table Question Answering [63.56707527868466]
本研究では,TableQAの外部知識源として知識ベース(KB)を用いることを提案する。
すべての質問は、答えるテーブルとサブグラフの両方からの情報を統合する必要がある。
我々は,膨大な知識サブグラフから関連する情報を抽出するために,レトリバー・レゾナー構造パイプラインモデルを設計する。
論文 参考訳(メタデータ) (2024-05-13T18:26:32Z) - Is Table Retrieval a Solved Problem? Exploring Join-Aware Multi-Table Retrieval [52.592071689901196]
本稿では,テーブル検索において,任意のクエリやデータベースに対して有用な結合関係を明らかにする手法を提案する。
提案手法は,F1スコアの最大9.3%,エンドツーエンドQAの最大5.4%の精度で,テーブル検索の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2024-04-15T15:55:01Z) - MFORT-QA: Multi-hop Few-shot Open Rich Table Question Answering [3.1651118728570635]
今日の急成長する業界では、専門家は大量の文書を要約し、毎日重要な情報を抽出するという課題に直面している。
この課題に対処するために、テーブル質問回答(QA)のアプローチを開発し、関連する情報を抽出した。
近年のLarge Language Models (LLMs) の進歩により,プロンプトを用いて表データから情報を取り出す新たな可能性が高まっている。
論文 参考訳(メタデータ) (2024-03-28T03:14:18Z) - MURRE: Multi-Hop Table Retrieval with Removal for Open-Domain Text-to-SQL [51.48239006107272]
MURRE (Multi-hop table search with removal) は、未検索のテーブルへ誘導するために、質問から以前検索した情報を削除する。
2つのオープンドメインのテキスト・ツー・レトリバーデータセットの実験は、以前の最先端結果よりも平均5.7%改善したことを示している。
論文 参考訳(メタデータ) (2024-02-16T13:14:35Z) - Open-Set Knowledge-Based Visual Question Answering with Inference Paths [79.55742631375063]
知識に基づく視覚的質問回答(KB-VQA)の目的は、外部知識ベースの助けを借りて質問に対する正しい回答を提供することである。
KB-VQA, Graph pATH ranker (GATHER for brevity) の新しいレトリバーランカパラダイムを提案する。
具体的には、グラフの構築、プルーニング、パスレベルのランク付けが含まれており、正確な回答を検索するだけでなく、推論パスを提供して推論プロセスを説明する。
論文 参考訳(メタデータ) (2023-10-12T09:12:50Z) - S$^3$HQA: A Three-Stage Approach for Multi-hop Text-Table Hybrid Question Answering [27.66777544627217]
既存のモデルは、主にいくつかの欠陥があるレトリバー・リーダー・フレームワークを採用している。
本稿では3段階のTextTableQAフレームワークS3HQAを提案する。
完全なデータセットでトレーニングすると、私たちのアプローチはすべてのベースラインメソッドを上回り、HybridQAのリーダボードにランクインします。
論文 参考訳(メタデータ) (2023-05-19T15:01:48Z) - Mixed-modality Representation Learning and Pre-training for Joint
Table-and-Text Retrieval in OpenQA [85.17249272519626]
最適化された OpenQA Table-Text Retriever (OTTeR) を提案する。
検索中心の混合モード合成事前学習を行う。
OTTeRはOTT-QAデータセット上でのテーブル・アンド・テキスト検索の性能を大幅に改善する。
論文 参考訳(メタデータ) (2022-10-11T07:04:39Z) - Open Domain Question Answering over Tables via Dense Retrieval [8.963951462217421]
回収者の効果的な事前訓練手順を提示し、採掘されたハードネガティブで検索品質を向上させます。
その結果,検索器は検索結果を72.0から81.1@10に改善し,エンドツーエンドのQAは33.8から37.7まで,BERTベースの検索器よりも向上した。
論文 参考訳(メタデータ) (2021-03-22T17:01:04Z) - Open Question Answering over Tables and Text [55.8412170633547]
オープンな質問応答(QA)では、質問に対する回答は、質問に対する回答を含む可能性のある文書を検索して分析することによって生成される。
ほとんどのオープンQAシステムは、構造化されていないテキストからのみ情報を取得することを検討している。
我々は,このタスクの性能を評価するために,新しい大規模データセット Open Table-and-Text Question Answering (OTT-QA) を提案する。
論文 参考訳(メタデータ) (2020-10-20T16:48:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。