論文の概要: HRoT: Hybrid prompt strategy and Retrieval of Thought for Table-Text
Hybrid Question Answering
- arxiv url: http://arxiv.org/abs/2309.12669v1
- Date: Fri, 22 Sep 2023 07:26:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-25 15:41:53.144230
- Title: HRoT: Hybrid prompt strategy and Retrieval of Thought for Table-Text
Hybrid Question Answering
- Title(参考訳): hrot:テーブルとテキストのハイブリッド質問応答のためのハイブリッドプロンプト戦略と思考の検索
- Authors: Tongxu Luo, Fangyu Lei, Jiahe Lei, Weihao Liu, Shihu He, Jun Zhao and
Kang Liu
- Abstract要約: 本稿では,TextTableQAのためのHybrid prompt strategyとRetrieval of Thoughtという新たなプロンプト戦略を提案する。
本手法は,MultiHierttデータセットのフル教師付きSOTAと比較して,数ショット設定で優れた性能を実現する。
- 参考スコア(独自算出の注目度): 13.026990720973703
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Answering numerical questions over hybrid contents from the given tables and
text(TextTableQA) is a challenging task. Recently, Large Language Models (LLMs)
have gained significant attention in the NLP community. With the emergence of
large language models, In-Context Learning and Chain-of-Thought prompting have
become two particularly popular research topics in this field. In this paper,
we introduce a new prompting strategy called Hybrid prompt strategy and
Retrieval of Thought for TextTableQA. Through In-Context Learning, we prompt
the model to develop the ability of retrieval thinking when dealing with hybrid
data. Our method achieves superior performance compared to the fully-supervised
SOTA on the MultiHiertt dataset in the few-shot setting.
- Abstract(参考訳): 与えられたテーブルとテキスト(TextTableQA)からハイブリッドコンテンツに関する数値的な疑問に答えることは難しい課題である。
近年,NLPコミュニティにおいてLarge Language Models (LLMs) が注目されている。
大規模言語モデルが出現し、文脈内学習と思考の連鎖的促進がこの分野で特に人気のある2つの研究トピックとなっている。
本稿では,TextTableQAのためのHybrid prompt strategyとRetrieval of Thoughtという新たなプロンプト戦略を提案する。
コンテキスト内学習を通じて,ハイブリッドデータを扱う際に,モデルが思考を検索する能力を開発するように促す。
本手法は,MultiHierttデータセットのフル教師付きSOTAと比較して,数ショット設定で優れた性能を実現する。
関連論文リスト
- Investigating Consistency in Query-Based Meeting Summarization: A
Comparative Study of Different Embedding Methods [0.0]
テキスト要約は自然言語処理(NLP)分野における有名な応用の1つである。
与えられたコンテキストに基づいて重要な情報による要約を自動的に生成することを目的としている。
本稿では,Microsoft が提案した "QMSum: A New Benchmark for Query-based Multi-domain Meeting Summarization" に着想を得た。
また,提案するLocaterモデルを用いて,与えられたテキストとクエリに基づいて関連するスパンを抽出し,それをSummarizerモデルで要約する。
論文 参考訳(メタデータ) (2024-02-10T08:25:30Z) - Improving Question Generation with Multi-level Content Planning [70.37285816596527]
本稿では、与えられたコンテキストと回答から質問を生成する問題に対処し、特に拡張されたコンテキストをまたいだマルチホップ推論を必要とする質問に焦点をあてる。
具体的には、キーフレーズを同時に選択して完全な回答を生成するFA-modelと、生成した全回答を付加的な入力として取り込んだQ-modelの2つのコンポーネントを含む。
論文 参考訳(メタデータ) (2023-10-20T13:57:01Z) - SEER : A Knapsack approach to Exemplar Selection for In-Context HybridQA [1.0323063834827413]
本稿では,ハイブリッド推論(SEER)のためのサンプルの選択について述べる。
SEERの有効性はFinQAとTAT-QAで実証されている。
論文 参考訳(メタデータ) (2023-10-10T14:50:20Z) - MMHQA-ICL: Multimodal In-context Learning for Hybrid Question Answering
over Text, Tables and Images [24.17147521556083]
コンテキスト内学習はQA問題を解決する最も一般的な方法となっている。
この問題に対処するためのMMHQA-ICLフレームワークを提案する。
私たちは、このタスクにエンドツーエンドのプロンプトメソッドを最初に使用しています。
論文 参考訳(メタデータ) (2023-09-09T13:35:01Z) - QTSumm: Query-Focused Summarization over Tabular Data [58.62152746690958]
人々は主に、データ分析を行うか、特定の質問に答えるためにテーブルをコンサルティングします。
そこで本研究では,テキスト生成モデルに人間的な推論を行なわなければならない,クエリ中心のテーブル要約タスクを新たに定義する。
このタスクには,2,934テーブル上の7,111の人間注釈付きクエリ-サマリーペアを含む,QTSummという新しいベンチマークを導入する。
論文 参考訳(メタデータ) (2023-05-23T17:43:51Z) - S$^3$HQA: A Three-Stage Approach for Multi-hop Text-Table Hybrid Question Answering [27.66777544627217]
既存のモデルは、主にいくつかの欠陥があるレトリバー・リーダー・フレームワークを採用している。
本稿では3段階のTextTableQAフレームワークS3HQAを提案する。
完全なデータセットでトレーニングすると、私たちのアプローチはすべてのベースラインメソッドを上回り、HybridQAのリーダボードにランクインします。
論文 参考訳(メタデータ) (2023-05-19T15:01:48Z) - Multi-View Graph Representation Learning for Answering Hybrid Numerical
Reasoning Question [13.321467396155116]
本稿では,粒度間の関係を考慮し,複数の視点から関係を捉えるための多視点グラフ(MVG)を提案する。
我々は,テーブル・テキスト・ハイブリッドQAベンチマーク(TAT-QA)で本モデルを検証し,最先端のモデルより優れていることを示す。
論文 参考訳(メタデータ) (2023-05-05T12:00:58Z) - Mixed-modality Representation Learning and Pre-training for Joint
Table-and-Text Retrieval in OpenQA [85.17249272519626]
最適化された OpenQA Table-Text Retriever (OTTeR) を提案する。
検索中心の混合モード合成事前学習を行う。
OTTeRはOTT-QAデータセット上でのテーブル・アンド・テキスト検索の性能を大幅に改善する。
論文 参考訳(メタデータ) (2022-10-11T07:04:39Z) - Towards Complex Document Understanding By Discrete Reasoning [77.91722463958743]
VQA(Document Visual Question Answering)は、自然言語による質問に答えるために、視覚的に豊富なドキュメントを理解することを目的としている。
我々は3,067の文書ページと16,558の質問応答ペアからなる新しいドキュメントVQAデータセットTAT-DQAを紹介する。
我々は,テキスト,レイアウト,視覚画像など,多要素の情報を考慮に入れたMHSTという新しいモデルを開発し,異なるタイプの質問にインテリジェントに対処する。
論文 参考訳(メタデータ) (2022-07-25T01:43:19Z) - $\textit{latent}$-GLAT: Glancing at Latent Variables for Parallel Text
Generation [65.29170569821093]
並列テキスト生成は、ジェネレーション効率の成功により、広く注目を集めています。
本稿では,単語分類情報を取得するために,離散潜在変数を用いた$textitlatent$-GLATを提案する。
実験結果から,本手法は自己回帰モデルを用いることなく,強いベースラインを達成できることが示唆された。
論文 参考訳(メタデータ) (2022-04-05T07:34:12Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。