論文の概要: Reasoning over Hybrid Chain for Table-and-Text Open Domain QA
- arxiv url: http://arxiv.org/abs/2201.05880v1
- Date: Sat, 15 Jan 2022 16:11:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 15:05:17.102620
- Title: Reasoning over Hybrid Chain for Table-and-Text Open Domain QA
- Title(参考訳): テーブルとテキストのオープンドメインQAのためのハイブリッドチェインの推論
- Authors: Wanjun Zhong, Junjie Huang, Qian Liu, Ming Zhou, Jiahai Wang, Jian
Yin, and Nan Duan
- Abstract要約: 我々はChAin中心の推論と事前学習フレームワーク(CARP)を提案する。
CARPはハイブリッドチェーンを使用して、質問応答のための表とテキスト間の明示的な中間推論プロセスをモデル化する。
また,クロスモダリティ推論プロセスの同定において,事前学習モデルを強化するために,新しいチェーン中心の事前学習手法を提案する。
- 参考スコア(独自算出の注目度): 69.8436986668218
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tabular and textual question answering requires systems to perform reasoning
over heterogeneous information, considering table structure, and the
connections among table and text. In this paper, we propose a ChAin-centric
Reasoning and Pre-training framework (CARP). CARP utilizes hybrid chain to
model the explicit intermediate reasoning process across table and text for
question answering. We also propose a novel chain-centric pre-training method,
to enhance the pre-trained model in identifying the cross-modality reasoning
process and alleviating the data sparsity problem. This method constructs the
large-scale reasoning corpus by synthesizing pseudo heterogeneous reasoning
paths from Wikipedia and generating corresponding questions. We evaluate our
system on OTT-QA, a large-scale table-and-text open-domain question answering
benchmark, and our system achieves the state-of-the-art performance. Further
analyses illustrate that the explicit hybrid chain offers substantial
performance improvement and interpretablity of the intermediate reasoning
process, and the chain-centric pre-training boosts the performance on the chain
extraction.
- Abstract(参考訳): 表構造と表とテキスト間の接続を考慮し、不均一な情報に対する推論を行うシステムを必要とする。
本稿では,ChAin中心のReasoning and Pre-training framework (CARP)を提案する。
CARPはハイブリッドチェーンを使用して、質問応答のための表とテキスト間の明示的な中間推論プロセスをモデル化する。
また,クロスモダリティ推論プロセスの同定とデータスパーシティ問題の軽減において,事前学習モデルを強化する新しい連鎖中心事前学習法を提案する。
本手法は,Wikipediaから擬似異種推論経路を合成し,対応する質問を生成することにより,大規模推論コーパスを構築する。
我々は,大規模テーブル・アンド・テキスト・オープンドメイン質問応答ベンチマークであるOTT-QAを用いて,本システムの評価を行った。
さらなる分析により、明示的なハイブリッドチェーンは中間推論プロセスの実質的な性能向上と解釈を提供し、連鎖中心の事前学習は連鎖抽出の性能を高めることが示されている。
関連論文リスト
- H-STAR: LLM-driven Hybrid SQL-Text Adaptive Reasoning on Tables [56.73919743039263]
本稿では,2段階のプロセスにシンボル的アプローチと意味的アプローチ(テキスト的アプローチ)を統合し,制約に対処する新しいアルゴリズムを提案する。
実験の結果,H-STARは3つの質問応答(QA)と事実検証データセットにおいて,最先端の手法を大幅に上回っていることがわかった。
論文 参考訳(メタデータ) (2024-06-29T21:24:19Z) - A Rationale-centric Counterfactual Data Augmentation Method for Cross-Document Event Coreference Resolution [29.34028569245905]
構造因果モデル(SCM)を用いたベースラインECRシステムの意思決定過程を定式化する。
LLM-in-the-loop を用いた有理中心の反実データ拡張法を開発した。
提案手法は,3つのクロスドキュメント ECR ベンチマークの最先端性能を実現し,ドメイン外シナリオの堅牢性を実証する。
論文 参考訳(メタデータ) (2024-04-02T13:15:07Z) - ChainLM: Empowering Large Language Models with Improved Chain-of-Thought Prompting [124.69672273754144]
CoT(Chain-of-Thought)のプロンプトにより,大規模言語モデル(LLM)の推論能力が向上する
既存のCoTアプローチは通常、単純な推論タスクに重点を置いており、結果として低品質で一貫性のないCoTプロンプトをもたらす。
優れたCoTプロンプトの自動生成のための新しいフレームワークであるCoTGeniusを紹介する。
論文 参考訳(メタデータ) (2024-03-21T11:34:26Z) - SEER: Facilitating Structured Reasoning and Explanation via Reinforcement Learning [29.514755268807868]
構造的推論と説明を容易にする構造的回帰を最大化する新しい手法であるSEERを提案する。
提案手法は構造的推論に固有の階層構造と分岐構造を正確に記述する。
実験の結果,SEERは最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-01-24T06:10:51Z) - Chain-of-Table: Evolving Tables in the Reasoning Chain for Table
Understanding [79.9461269253121]
そこで我々は、中間思考のプロキシとして、図表データを推論チェーンで明示的に使用するChain-of-Tableフレームワークを提案する。
Chain-of-TableはWikiTQ、FeTaQA、TabFactベンチマークで最新のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-01-09T07:46:26Z) - Prompting Large Language Models with Chain-of-Thought for Few-Shot
Knowledge Base Question Generation [19.327008532572645]
知識ベースに関する質問生成(KBQG)は、論理形式を自然言語の質問に変換することを目的としている。
推論のためのコンテキスト内学習戦略であるChain-of-Thoughtプロンプトを提案する。
3つのKBQGデータセットに対して広範な実験を行う。
論文 参考訳(メタデータ) (2023-10-12T15:08:14Z) - Generalizable Chain-of-Thought Prompting in Mixed-task Scenarios with
Large Language Models [68.05046964022844]
大規模言語モデル(LLM)は、チェーン・オブ・ソート(CoT)のプロンプトを活用することで、顕著な推論機能を明らかにしている。
本稿では,入力質問の種類が不明な混合タスクシナリオにおいて,一般化可能なCoTプロンプト機構であるGeM-CoTを提案する。
この技術設計により、GeM-CoTは10の公開推論タスクと23のBBHタスクにおいて優れた一般化能力と優れたパフォーマンスを同時に享受する。
論文 参考訳(メタデータ) (2023-10-10T15:10:03Z) - Open-domain Question Answering via Chain of Reasoning over Heterogeneous
Knowledge [82.5582220249183]
異種知識ソース間のシングル/マルチホップ質問に応答する新しいオープンドメイン質問応答(ODQA)フレームワークを提案する。
分離された証拠を収集するためにレトリバーにのみ依存する従来の方法とは異なり、我々の仲介者は検索された集合に対する推論の連鎖を実行する。
本システムは,2つのODQAデータセットであるOTT-QAとNQに対して,Wikipediaの表や節に対する競合性能を実現する。
論文 参考訳(メタデータ) (2022-10-22T03:21:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。