論文の概要: Table Question Answering in the Era of Large Language Models: A Comprehensive Survey of Tasks, Methods, and Evaluation
- arxiv url: http://arxiv.org/abs/2510.09671v1
- Date: Wed, 08 Oct 2025 14:56:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.54416
- Title: Table Question Answering in the Era of Large Language Models: A Comprehensive Survey of Tasks, Methods, and Evaluation
- Title(参考訳): 大規模言語モデルの時代における表問答:課題・方法・評価の包括的調査
- Authors: Wei Zhou, Bolei Ma, Annemarie Friedrich, Mohsen Mesgar,
- Abstract要約: テーブル質問回答(TQA)タスクは、テーブル表現、質問/回答の複雑さ、モダリティ、ドメインなど、さまざまな設定にまたがる。
大規模言語モデル(LLM)の最近の進歩は、TQAの大幅な進歩をもたらしたが、まだ体系的な構造やタスクの定式化、コア課題、方法論的傾向の理解が欠けている。
本調査は,LLM法に着目した総合的かつ構造化されたTQA研究の概要を提供することにより,このギャップに対処する。
- 参考スコア(独自算出の注目度): 18.503489117909503
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Table Question Answering (TQA) aims to answer natural language questions about tabular data, often accompanied by additional contexts such as text passages. The task spans diverse settings, varying in table representation, question/answer complexity, modality involved, and domain. While recent advances in large language models (LLMs) have led to substantial progress in TQA, the field still lacks a systematic organization and understanding of task formulations, core challenges, and methodological trends, particularly in light of emerging research directions such as reinforcement learning. This survey addresses this gap by providing a comprehensive and structured overview of TQA research with a focus on LLM-based methods. We provide a comprehensive categorization of existing benchmarks and task setups. We group current modeling strategies according to the challenges they target, and analyze their strengths and limitations. Furthermore, we highlight underexplored but timely topics that have not been systematically covered in prior research. By unifying disparate research threads and identifying open problems, our survey offers a consolidated foundation for the TQA community, enabling a deeper understanding of the state of the art and guiding future developments in this rapidly evolving area.
- Abstract(参考訳): TQA(Table Question Answering)は、表形式のデータに関する自然言語の質問に答えることを目的としている。
タスクは、テーブル表現、質問/回答の複雑さ、モダリティ、ドメインなど、さまざまな設定にまたがる。
大規模言語モデル(LLM)の最近の進歩は、TQAの大幅な進歩につながっているが、特に強化学習のような新たな研究の方向性に照らして、タスクの定式化やコア課題、方法論的傾向の体系的な構造や理解はいまだに欠けている。
本調査は,LLM法に着目した総合的かつ構造化されたTQA研究の概要を提供することにより,このギャップに対処する。
既存のベンチマークとタスク設定を包括的に分類する。
対象とする課題に応じて、現在のモデリング戦略をグループ化し、その強みと限界を分析します。
さらに,先行研究で体系的に取り上げられていない,未調査だがタイムリーなトピックについても取り上げる。
異なる研究スレッドを統一し、オープンな問題を特定することで、我々の調査はTQAコミュニティの総合的な基盤を提供し、この急速に発展する領域における最先端の理解と今後の発展を導くことを可能にします。
関連論文リスト
- Who Gets Cited Most? Benchmarking Long-Context Language Models on Scientific Articles [81.89404347890662]
SciTrekは、科学論文を用いた大規模言語モデル(LLM)の長文推論能力を評価するために設計された、新しい質問応答ベンチマークである。
本分析により,モデルの基本的数値演算を行ない,特定の情報を長い文脈で正確に特定する能力において,系統的な欠点が明らかとなった。
論文 参考訳(メタデータ) (2025-09-25T11:36:09Z) - Disambiguation in Conversational Question Answering in the Era of LLMs and Agents: A Survey [54.90240495777929]
自然言語処理(NLP)におけるあいまいさは依然として根本的な課題である
LLM(Large Language Models)の出現により、あいまいさに対処することがさらに重要になった。
本稿では,言語駆動システムにおけるあいまいさの定義,形態,含意について考察する。
論文 参考訳(メタデータ) (2025-05-18T20:53:41Z) - A Systematic Survey on Instructional Text: From Representation Formats to Downstream NLP Tasks [0.0]
現実世界のタスクには、現在のNLPシステムでは難しい複雑なマルチステップ命令が伴うことが多い。
本研究は、この新興分野におけるトレンド、課題、機会を特定する177の論文について検討する。
論文 参考訳(メタデータ) (2024-10-24T08:22:59Z) - From Pixels to Insights: A Survey on Automatic Chart Understanding in the Era of Large Foundation Models [98.41645229835493]
グラフ形式のデータの可視化は、データ分析において重要な役割を担い、重要な洞察を提供し、情報的な意思決定を支援する。
大規模言語モデルのような大規模な基盤モデルは、様々な自然言語処理タスクに革命をもたらした。
本研究は,自然言語処理,コンピュータビジョン,データ解析の分野における研究者や実践者の包括的資源として機能する。
論文 参考訳(メタデータ) (2024-03-18T17:57:09Z) - Trends in Integration of Knowledge and Large Language Models: A Survey and Taxonomy of Methods, Benchmarks, and Applications [41.24492058141363]
大規模言語モデル(LLM)は、様々な自然言語処理において優れた性能を示すが、時代遅れのデータやドメイン固有の制限から生じる問題の影響を受けやすい。
本稿では,手法,ベンチマーク,応用の分類など,知識モデルと大規模言語モデルの統合の動向を論じるレビューを提案する。
論文 参考訳(メタデータ) (2023-11-10T05:24:04Z) - Re-Reading Improves Reasoning in Large Language Models [87.46256176508376]
既成のLarge Language Models (LLM) の推論能力を高めるため, 単純で汎用的で効果的なプロンプト手法であるRe2を導入する。
CoT (Chain-of-Thought) など、ほとんどの思考を刺激する手法とは異なり、Re2 は質問を2回処理することで入力に焦点を移し、理解プロセスを強化する。
提案手法の有効性と汎用性を検証するため,14のデータセットにまたがる広範囲な推論ベンチマークでRe2を評価した。
論文 参考訳(メタデータ) (2023-09-12T14:36:23Z) - Towards Complex Document Understanding By Discrete Reasoning [77.91722463958743]
VQA(Document Visual Question Answering)は、自然言語による質問に答えるために、視覚的に豊富なドキュメントを理解することを目的としている。
我々は3,067の文書ページと16,558の質問応答ペアからなる新しいドキュメントVQAデータセットTAT-DQAを紹介する。
我々は,テキスト,レイアウト,視覚画像など,多要素の情報を考慮に入れたMHSTという新しいモデルを開発し,異なるタイプの質問にインテリジェントに対処する。
論文 参考訳(メタデータ) (2022-07-25T01:43:19Z) - Conversational Question Answering: A Survey [18.447856993867788]
本調査は,会話質問回答(CQA)の最先端研究動向を包括的に概観する試みである。
この結果から,会話型AIの分野をさまざまな観点から活性化する一ターンから多ターンQAへの傾向が示唆された。
論文 参考訳(メタデータ) (2021-06-02T01:06:34Z) - A Survey on Complex Question Answering over Knowledge Base: Recent
Advances and Challenges [71.4531144086568]
知識ベース(KB)に対する質問回答(QA)は、自然言語の質問に自動的に答えることを目的としている。
研究者は、よりKBのトリプルと制約推論を必要とする単純な質問から複雑な質問へと注意を移した。
論文 参考訳(メタデータ) (2020-07-26T07:13:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。