論文の概要: PACIFIC: Towards Proactive Conversational Question Answering over
Tabular and Textual Data in Finance
- arxiv url: http://arxiv.org/abs/2210.08817v1
- Date: Mon, 17 Oct 2022 08:06:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 18:35:27.141934
- Title: PACIFIC: Towards Proactive Conversational Question Answering over
Tabular and Textual Data in Finance
- Title(参考訳): pacific: 財務における表データとテキストデータによる積極的な対話型質問応答に向けて
- Authors: Yang Deng, Wenqiang Lei, Wenxuan Zhang, Wai Lam, Tat-Seng Chua
- Abstract要約: 我々はPACIFICという新しいデータセットを提案する。既存のCQAデータセットと比較すると、PACIFICは(i)活動性、(ii)数値推論、(iii)表とテキストのハイブリッドコンテキストの3つの重要な特徴を示す。
質問生成とCQAを組み合わせたPCQA(Proactive Conversational Question Answering)に基づいて,新しいタスクを定義する。
UniPCQAはPCQAのすべてのサブタスク上でマルチタスク学習を行い、Seeq2Seqの上位$kのサンプルをクロスバリデーションすることで、マルチタスク学習におけるエラー伝搬問題を緩和するための単純なアンサンブル戦略を取り入れている。
- 参考スコア(独自算出の注目度): 96.06505049126345
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To facilitate conversational question answering (CQA) over hybrid contexts in
finance, we present a new dataset, named PACIFIC. Compared with existing CQA
datasets, PACIFIC exhibits three key features: (i) proactivity, (ii) numerical
reasoning, and (iii) hybrid context of tables and text. A new task is defined
accordingly to study Proactive Conversational Question Answering (PCQA), which
combines clarification question generation and CQA. In addition, we propose a
novel method, namely UniPCQA, to adapt a hybrid format of input and output
content in PCQA into the Seq2Seq problem, including the reformulation of the
numerical reasoning process as code generation. UniPCQA performs multi-task
learning over all sub-tasks in PCQA and incorporates a simple ensemble strategy
to alleviate the error propagation issue in the multi-task learning by
cross-validating top-$k$ sampled Seq2Seq outputs. We benchmark the PACIFIC
dataset with extensive baselines and provide comprehensive evaluations on each
sub-task of PCQA.
- Abstract(参考訳): 金融のハイブリッドコンテキスト上での会話型質問応答(CQA)を容易にするために,PACIFICという新しいデータセットを提案する。
既存のCQAデータセットと比較して、PACIFICには3つの重要な特徴がある。
(i)プロラクティビティ
(ii)数値推論、及び
(iii)表とテキストのハイブリッドコンテキスト。
新しいタスクは、明確化質問生成とcqaを組み合わせたproactive conversational question answering(pcqa)を研究するために定義されます。
さらに,PCQAにおける入力と出力のハイブリッド形式をSeq2Seq問題に適応させる新しい手法,UniPCQAを提案する。
UniPCQAはPCQAのすべてのサブタスクに対してマルチタスク学習を行い、トップ$kのサンプルSeq2Seq出力をクロスバリデーションすることで、マルチタスク学習におけるエラー伝搬問題を緩和するための単純なアンサンブル戦略を取り入れている。
我々はPACIFICデータセットを広範なベースラインでベンチマークし、PCQAの各サブタスクについて包括的な評価を行う。
関連論文リスト
- MFORT-QA: Multi-hop Few-shot Open Rich Table Question Answering [3.1651118728570635]
今日の急成長する業界では、専門家は大量の文書を要約し、毎日重要な情報を抽出するという課題に直面している。
この課題に対処するために、テーブル質問回答(QA)のアプローチを開発し、関連する情報を抽出した。
近年のLarge Language Models (LLMs) の進歩により,プロンプトを用いて表データから情報を取り出す新たな可能性が高まっている。
論文 参考訳(メタデータ) (2024-03-28T03:14:18Z) - An Empirical Comparison of LM-based Question and Answer Generation
Methods [79.31199020420827]
質問と回答の生成(QAG)は、コンテキストが与えられた質問と回答のペアのセットを生成することで構成される。
本稿では,シーケンス・ツー・シーケンス言語モデル(LM)を微調整する3つの異なるQAG手法を用いて,ベースラインを確立する。
実験により、学習時間と推論時間の両方で計算的に軽量なエンドツーエンドQAGモデルが一般に堅牢であり、他のより複雑なアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-26T14:59:53Z) - Summarizing Community-based Question-Answer Pairs [5.680726650578754]
本稿では,CQAペアから簡潔な要約を作成することを目的とした,新しいCQA要約タスクを提案する。
私たちのデータとコードは公開されています。
論文 参考訳(メタデータ) (2022-11-17T21:09:41Z) - QASem Parsing: Text-to-text Modeling of QA-based Semantics [19.42681342441062]
本稿では,QA-SRL,QANom,QADiscourseの3つの意味的タスクについて考察する。
最初に統合されたQASem解析ツールをリリースし、下流アプリケーションに実用的です。
論文 参考訳(メタデータ) (2022-05-23T15:56:07Z) - TAT-QA: A Question Answering Benchmark on a Hybrid of Tabular and
Textual Content in Finance [71.76018597965378]
TAT-QAと呼ばれるタブラデータとテクスチャデータの両方を含む新しい大規模な質問応答データセットを構築します。
本稿では,テーブルとテキストの両方を推論可能な新しいQAモデルであるTAGOPを提案する。
論文 参考訳(メタデータ) (2021-05-17T06:12:06Z) - FeTaQA: Free-form Table Question Answering [33.018256483762386]
FeTaQAは10Kのウィキペディアベースのテーブル、質問、自由形式の回答、テーブルセルペアをサポートする新しいデータセットである。
FeTaQAは、構造化された知識ソースから複数の不連続な事実の検索、推論、および統合後に自由形式のテキスト回答を生成する必要があるため、より困難なテーブル質問回答設定を提供する。
論文 参考訳(メタデータ) (2021-04-01T09:59:40Z) - TSQA: Tabular Scenario Based Question Answering [14.92495213480887]
シナリオベースの質問応答(SQA)が研究の関心を集めている。
本研究を支援するため,GeoTSQAを構築した。
テーブル・トゥ・テキストの新しいジェネレータであるTTGenにより、最新のMRCメソッドを拡張します。
論文 参考訳(メタデータ) (2021-01-14T02:00:33Z) - Open Question Answering over Tables and Text [55.8412170633547]
オープンな質問応答(QA)では、質問に対する回答は、質問に対する回答を含む可能性のある文書を検索して分析することによって生成される。
ほとんどのオープンQAシステムは、構造化されていないテキストからのみ情報を取得することを検討している。
我々は,このタスクの性能を評価するために,新しい大規模データセット Open Table-and-Text Question Answering (OTT-QA) を提案する。
論文 参考訳(メタデータ) (2020-10-20T16:48:14Z) - KQA Pro: A Dataset with Explicit Compositional Programs for Complex
Question Answering over Knowledge Base [67.87878113432723]
複雑KBQAのためのデータセットであるKQA Proを紹介する。
各質問に対して、対応するKoPLプログラムとSPARQLクエリを提供するので、KQA ProはKBQAとセマンティック解析の両方に役立ちます。
論文 参考訳(メタデータ) (2020-07-08T03:28:04Z) - Generating Diverse and Consistent QA pairs from Contexts with
Information-Maximizing Hierarchical Conditional VAEs [62.71505254770827]
非構造化テキストを文脈として与えられたQAペアを生成するための条件付き変分オートエンコーダ(HCVAE)を提案する。
我々のモデルは、トレーニングにわずかなデータしか使わず、両方のタスクの全てのベースラインに対して印象的なパフォーマンス向上が得られる。
論文 参考訳(メタデータ) (2020-05-28T08:26:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。