論文の概要: Mixed-modality Representation Learning and Pre-training for Joint
Table-and-Text Retrieval in OpenQA
- arxiv url: http://arxiv.org/abs/2210.05197v1
- Date: Tue, 11 Oct 2022 07:04:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 14:19:04.875173
- Title: Mixed-modality Representation Learning and Pre-training for Joint
Table-and-Text Retrieval in OpenQA
- Title(参考訳): OpenQAにおける連接表とテキスト検索のための混合モダリティ表現学習と事前学習
- Authors: Junjie Huang, Wanjun Zhong, Qian Liu, Ming Gong, Daxin Jiang and Nan
Duan
- Abstract要約: 最適化された OpenQA Table-Text Retriever (OTTeR) を提案する。
検索中心の混合モード合成事前学習を行う。
OTTeRはOTT-QAデータセット上でのテーブル・アンド・テキスト検索の性能を大幅に改善する。
- 参考スコア(独自算出の注目度): 85.17249272519626
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Retrieving evidences from tabular and textual resources is essential for
open-domain question answering (OpenQA), which provides more comprehensive
information. However, training an effective dense table-text retriever is
difficult due to the challenges of table-text discrepancy and data sparsity
problem. To address the above challenges, we introduce an optimized OpenQA
Table-Text Retriever (OTTeR) to jointly retrieve tabular and textual evidences.
Firstly, we propose to enhance mixed-modality representation learning via two
mechanisms: modality-enhanced representation and mixed-modality negative
sampling strategy. Secondly, to alleviate data sparsity problem and enhance the
general retrieval ability, we conduct retrieval-centric mixed-modality
synthetic pre-training. Experimental results demonstrate that OTTeR
substantially improves the performance of table-and-text retrieval on the
OTT-QA dataset. Comprehensive analyses examine the effectiveness of all the
proposed mechanisms. Besides, equipped with OTTeR, our OpenQA system achieves
the state-of-the-art result on the downstream QA task, with 10.1\% absolute
improvement in terms of the exact match over the previous best system.
\footnote{All the code and data are available at
\url{https://github.com/Jun-jie-Huang/OTTeR}.}
- Abstract(参考訳): より包括的な情報を提供するオープンドメイン質問応答(OpenQA)には、表やテキストのリソースからエビデンスを取得することが不可欠である。
しかし,表文の不一致やデータの疎度の問題により,効率的な表文検索の訓練は困難である。
上記の課題に対処するために,表とテキストの証拠を共同検索する最適化された OpenQA Table-Text Retriever (OTTeR) を導入する。
まず,モダリティ強調表現と混合モダリティ否定サンプリング戦略の2つのメカニズムによる混合モダリティ表現学習の強化を提案する。
次に,データのスパーシティ問題を緩和し,一般検索能力を向上させるため,検索中心の混合モダリティ合成前訓練を行う。
実験の結果,OTTeRはOTT-QAデータセット上でのテーブル・アンド・テキスト検索の性能を大幅に向上することが示された。
包括的分析により,提案手法の有効性を検証した。
さらに, OTTeRを組み込んだOpenQAシステムでは, 下流QAタスクにおいて, 従来の最良システムよりも10.1\%の精度向上を実現している。
コードとデータは、 \url{https://github.com/Jun-jie-Huang/OTTeR}で公開されている。
}
関連論文リスト
- GQE: Generalized Query Expansion for Enhanced Text-Video Retrieval [56.610806615527885]
本稿では,テキストとビデオ間の固有情報不均衡に対処するため,新しいデータ中心型アプローチであるGeneralized Query Expansion (GQE)を提案する。
ビデオをショートクリップにアダプティブに分割し、ゼロショットキャプションを採用することで、GQEはトレーニングデータセットを総合的なシーン記述で強化する。
GQEは、MSR-VTT、MSVD、SMDC、VATEXなど、いくつかのベンチマークで最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-08-14T01:24:09Z) - KET-QA: A Dataset for Knowledge Enhanced Table Question Answering [63.56707527868466]
本研究では,TableQAの外部知識源として知識ベース(KB)を用いることを提案する。
すべての質問は、答えるテーブルとサブグラフの両方からの情報を統合する必要がある。
我々は,膨大な知識サブグラフから関連する情報を抽出するために,レトリバー・レゾナー構造パイプラインモデルを設計する。
論文 参考訳(メタデータ) (2024-05-13T18:26:32Z) - Text-Tuple-Table: Towards Information Integration in Text-to-Table Generation via Global Tuple Extraction [36.915250638481986]
リアルタイムのコメンタリーテキストに基づいたコンペの要約表を生成するためのベンチマークデータセットであるLiveSumを紹介する。
我々は,このタスクにおける最先端の大規模言語モデルの性能を,微調整とゼロショットの両方で評価する。
さらに、パフォーマンスを改善するために、$T3$(Text-Tuple-Table)と呼ばれる新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2024-04-22T14:31:28Z) - MFORT-QA: Multi-hop Few-shot Open Rich Table Question Answering [3.1651118728570635]
今日の急成長する業界では、専門家は大量の文書を要約し、毎日重要な情報を抽出するという課題に直面している。
この課題に対処するために、テーブル質問回答(QA)のアプローチを開発し、関連する情報を抽出した。
近年のLarge Language Models (LLMs) の進歩により,プロンプトを用いて表データから情報を取り出す新たな可能性が高まっている。
論文 参考訳(メタデータ) (2024-03-28T03:14:18Z) - Beyond Extraction: Contextualising Tabular Data for Efficient
Summarisation by Language Models [0.0]
Retrieval-Augmented Generation アーキテクチャの従来の利用は、様々な文書から情報を取得するのに有効であることが証明されている。
本研究では,RAGに基づくシステムにおいて,複雑なテーブルクエリの精度を高めるための革新的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-01-04T16:16:14Z) - TAT-QA: A Question Answering Benchmark on a Hybrid of Tabular and
Textual Content in Finance [71.76018597965378]
TAT-QAと呼ばれるタブラデータとテクスチャデータの両方を含む新しい大規模な質問応答データセットを構築します。
本稿では,テーブルとテキストの両方を推論可能な新しいQAモデルであるTAGOPを提案する。
論文 参考訳(メタデータ) (2021-05-17T06:12:06Z) - Open Question Answering over Tables and Text [55.8412170633547]
オープンな質問応答(QA)では、質問に対する回答は、質問に対する回答を含む可能性のある文書を検索して分析することによって生成される。
ほとんどのオープンQAシステムは、構造化されていないテキストからのみ情報を取得することを検討している。
我々は,このタスクの性能を評価するために,新しい大規模データセット Open Table-and-Text Question Answering (OTT-QA) を提案する。
論文 参考訳(メタデータ) (2020-10-20T16:48:14Z) - Structured Multimodal Attentions for TextVQA [57.71060302874151]
上述の2つの問題を主に解決するために,終端から終端までの構造化マルチモーダルアテンション(SMA)ニューラルネットワークを提案する。
SMAはまず、画像に現れるオブジェクト・オブジェクト・オブジェクト・テキスト・テキストの関係を符号化するために構造グラフ表現を使用し、その後、それを推論するためにマルチモーダルグラフアテンションネットワークを設計する。
提案モデルでは,テキストVQAデータセットとST-VQAデータセットの2つのタスクを事前学習ベースTAP以外のモデルで比較した。
論文 参考訳(メタデータ) (2020-06-01T07:07:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。