論文の概要: Towards Probabilistic Question Answering Over Tabular Data
- arxiv url: http://arxiv.org/abs/2506.20747v1
- Date: Wed, 25 Jun 2025 18:15:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 19:53:09.84453
- Title: Towards Probabilistic Question Answering Over Tabular Data
- Title(参考訳): 語彙データの確率論的解答に向けて
- Authors: Chen Shen, Sajjadur Rahman, Estevam Hruschka,
- Abstract要約: 我々は,LUCARIOと大規模データに対する確率的質問応答のためのフレームワークを新たに導入した。
提案手法はベイジアンネットワークをテーブルから誘導し,自然言語クエリを確率的クエリに変換し,大規模言語モデル(LLM)を用いて最終回答を生成する。
実験の結果, ベースラインよりも顕著な改善が見られ, ハイブリッド・シンボリック・ニューラル推論の利点が浮かび上がっている。
- 参考スコア(独自算出の注目度): 6.697214457846037
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Current approaches for question answering (QA) over tabular data, such as NL2SQL systems, perform well for factual questions where answers are directly retrieved from tables. However, they fall short on probabilistic questions requiring reasoning under uncertainty. In this paper, we introduce a new benchmark LUCARIO and a framework for probabilistic QA over large tabular data. Our method induces Bayesian Networks from tables, translates natural language queries into probabilistic queries, and uses large language models (LLMs) to generate final answers. Empirical results demonstrate significant improvements over baselines, highlighting the benefits of hybrid symbolic-neural reasoning.
- Abstract(参考訳): NL2SQLシステムのような表データに対する質問応答(QA)の現在のアプローチは、テーブルから直接回答を検索する事実質問に対してうまく機能する。
しかし、不確実性の下での推論を必要とする確率論的問題に乏しい。
本稿では,新しいベンチマークLUCARIOと大規模表データに対する確率的QAのためのフレームワークを提案する。
提案手法はベイジアンネットワークをテーブルから誘導し,自然言語クエリを確率的クエリに変換し,大規模言語モデル(LLM)を用いて最終回答を生成する。
実験の結果, ベースラインよりも顕著な改善が見られ, ハイブリッド・シンボリック・ニューラル推論の利点が浮かび上がっている。
関連論文リスト
- Interpretable LLM-based Table Question Answering [5.484058026469263]
Plan-of-s (POS) は、モデルの意思決定に対するユーザの理解を改善するために設計された、解釈可能なテーブルQAアプローチである。
POSは,人間のモデル動作の理解を助け,モデル予測の検証を容易にする,高品質な説明手法であることを示す。
同じ説明に基づいて意思決定を行う際に、LLMと人間ユーザの間で高い合意(最大90%)を観察する。
論文 参考訳(メタデータ) (2024-12-16T22:44:31Z) - Chain-of-Table: Evolving Tables in the Reasoning Chain for Table
Understanding [79.9461269253121]
そこで我々は、中間思考のプロキシとして、図表データを推論チェーンで明示的に使用するChain-of-Tableフレームワークを提案する。
Chain-of-TableはWikiTQ、FeTaQA、TabFactベンチマークで最新のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-01-09T07:46:26Z) - TAP4LLM: Table Provider on Sampling, Augmenting, and Packing Semi-structured Data for Large Language Model Reasoning [55.33939289989238]
テーブルベースタスクにおいて,大規模言語モデル(LLM)を効果的に活用するための汎用プリプロセッサスイートとして,TAP4LLMを提案する。
1)大きなテーブルをクエリセマンティクスに基づいて管理可能なサブテーブルに分解するテーブルサンプリング、(2)外部ソースやモデルから追加の知識でテーブルを拡張するテーブル拡張、(3)テーブルパッキングとシリアライゼーションによりテーブルをLLMの理解に適したさまざまなフォーマットに変換する。
論文 参考訳(メタデータ) (2023-12-14T15:37:04Z) - QTSumm: Query-Focused Summarization over Tabular Data [58.62152746690958]
人々は主に、データ分析を行うか、特定の質問に答えるためにテーブルをコンサルティングします。
そこで本研究では,テキスト生成モデルに人間的な推論を行なわなければならない,クエリ中心のテーブル要約タスクを新たに定義する。
このタスクには,2,934テーブル上の7,111の人間注釈付きクエリ-サマリーペアを含む,QTSummという新しいベンチマークを導入する。
論文 参考訳(メタデータ) (2023-05-23T17:43:51Z) - Large Language Models are Versatile Decomposers: Decompose Evidence and
Questions for Table-based Reasoning [45.013230888670435]
大規模言語モデル(LLM)を効率的なテーブルベースの推論のためのデコンパイラとして活用する。
巨大な証拠(巨大な表)をサブエビデンス(小さな表)に分解し、無駄な情報の干渉を軽減する。
我々は,思考連鎖のジレンマを軽減するために,「パーシング・エグゼクティオン・フィリング」戦略を提案する。
論文 参考訳(メタデータ) (2023-01-31T17:51:45Z) - A Benchmark for Generalizable and Interpretable Temporal Question
Answering over Knowledge Bases [67.33560134350427]
TempQA-WDは時間的推論のためのベンチマークデータセットである。
Wikidataは、最も頻繁にキュレーションされ、公開されている知識ベースである。
論文 参考訳(メタデータ) (2022-01-15T08:49:09Z) - TAT-QA: A Question Answering Benchmark on a Hybrid of Tabular and
Textual Content in Finance [71.76018597965378]
TAT-QAと呼ばれるタブラデータとテクスチャデータの両方を含む新しい大規模な質問応答データセットを構築します。
本稿では,テーブルとテキストの両方を推論可能な新しいQAモデルであるTAGOPを提案する。
論文 参考訳(メタデータ) (2021-05-17T06:12:06Z) - FeTaQA: Free-form Table Question Answering [33.018256483762386]
FeTaQAは10Kのウィキペディアベースのテーブル、質問、自由形式の回答、テーブルセルペアをサポートする新しいデータセットである。
FeTaQAは、構造化された知識ソースから複数の不連続な事実の検索、推論、および統合後に自由形式のテキスト回答を生成する必要があるため、より困難なテーブル質問回答設定を提供する。
論文 参考訳(メタデータ) (2021-04-01T09:59:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。