論文の概要: LLM-Symbolic Integration for Robust Temporal Tabular Reasoning
- arxiv url: http://arxiv.org/abs/2506.05746v1
- Date: Fri, 06 Jun 2025 05:14:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.324129
- Title: LLM-Symbolic Integration for Robust Temporal Tabular Reasoning
- Title(参考訳): LLM-Symbolic Integration for Robust Temporal Tabular Reasoning (特集 バイオサイバネティックスとバイオサイバネティックス)
- Authors: Atharv Kulkarni, Kushagra Dixit, Vivek Srikumar, Dan Roth, Vivek Gupta,
- Abstract要約: 本研究では,システムおよび制御された評価のための合成データセットであるTempTabQA-Cを紹介する。
この構造化アプローチにより、LLM(Large Language Models)はsqlクエリの生成と実行を可能にし、一般化とバイアス軽減の強化を行う。
- 参考スコア(独自算出の注目度): 69.27153114778748
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Temporal tabular question answering presents a significant challenge for Large Language Models (LLMs), requiring robust reasoning over structured data, which is a task where traditional prompting methods often fall short. These methods face challenges such as memorization, sensitivity to table size, and reduced performance on complex queries. To overcome these limitations, we introduce TempTabQA-C, a synthetic dataset designed for systematic and controlled evaluations, alongside a symbolic intermediate representation that transforms tables into database schemas. This structured approach allows LLMs to generate and execute SQL queries, enhancing generalization and mitigating biases. By incorporating adaptive few-shot prompting with contextually tailored examples, our method achieves superior robustness, scalability, and performance. Experimental results consistently highlight improvements across key challenges, setting a new benchmark for robust temporal reasoning with LLMs.
- Abstract(参考訳): 時間的表型質問応答は、構造化データに対する堅牢な推論を必要とする大規模言語モデル(LLM)にとって重要な課題である。
これらの手法は、暗記、テーブルサイズに対する感度、複雑なクエリのパフォーマンス低下といった課題に直面している。
これらの制限を克服するために、テーブルをデータベーススキーマに変換するシンボリック中間表現とともに、体系的および制御された評価のために設計された合成データセットであるTempTabQA-Cを導入する。
この構造化されたアプローチにより、LLMはSQLクエリの生成と実行が可能になり、一般化とバイアス軽減が図られる。
適応的な小ショットプロンプトを文脈的に調整した例に組み込むことで,ロバスト性,スケーラビリティ,性能が向上する。
実験結果は、LLMによる堅牢な時間的推論のための新しいベンチマークを設定することで、主要な課題に対する改善を一貫して強調する。
関連論文リスト
- Automated Text-to-Table for Reasoning-Intensive Table QA: Pipeline Design and Benchmarking Insights [45.5276155343796]
本稿では,数式語問題をテーブルベースの推論タスクに変換する自動生成パイプラインAutoT2Tを提案する。
パイプラインは同じ推論問題に対して、堅牢性評価をサポートするノイズの多いバージョンを含む、テーブルの複数の変種を生成することができる。
AutoT2TとTabularGSMによる実験的分析により、複雑なテーブルQAタスクにおけるLCMの失敗の根底にある要因は、推論と検索と識別プロセスの密結合であることが明らかとなった。
論文 参考訳(メタデータ) (2025-05-26T06:24:31Z) - NeedleInATable: Exploring Long-Context Capability of Large Language Models towards Long-Structured Tables [32.9031799179503]
textscNeedleInATable (NIAT)は、各テーブルセルを針として扱い、セルの位置やルックアップ質問に基づいてターゲットセルを抽出するモデルを必要とする。
私たちのデータ、コード、モデルは、将来の研究を促進するためにリリースされます。
論文 参考訳(メタデータ) (2025-04-09T03:46:56Z) - Beyond Quacking: Deep Integration of Language Models and RAG into DuckDB [44.057784044659726]
大規模言語モデル(LLM)により、このような検索と推論データパイプラインのプロトタイプがより簡単になった。
これはしばしば、データシステムのオーケストレーション、データムーブメントの管理、低レベルの詳細処理を含む。
我々はFlockMTLを紹介した。FlockMTLはLLM機能と検索拡張生成を深く統合した抽象化用拡張である。
論文 参考訳(メタデータ) (2025-04-01T19:48:17Z) - TableRAG: Million-Token Table Understanding with Language Models [53.039560091592215]
TableRAG(TableRAG)は、LMベースのテーブル理解用に特別に設計された検索拡張生成(RAG)フレームワークである。
TableRAGは、スキーマとセル検索を組み合わせたクエリ拡張を活用して、LMにそれを提供する前に重要な情報をピンポイントする。
以上の結果から,TableRAGは検索精度が向上し,大規模テーブル理解における最先端性能が向上することが示唆された。
論文 参考訳(メタデータ) (2024-10-07T04:15:02Z) - Enhancing Temporal Understanding in LLMs for Semi-structured Tables [50.59009084277447]
我々は、大規模言語モデル(LLM)の特定の限界を特定するために、時間的データセットの包括的な分析を行う。
調査の結果,時間的時間的質問応答に特化したデータセットであるTempTabQAが強化された。
我々は,この領域におけるLLM機能を強化するために,新しいアプローチC.L.E.A.R.を導入する。
論文 参考訳(メタデータ) (2024-07-22T20:13:10Z) - NormTab: Improving Symbolic Reasoning in LLMs Through Tabular Data Normalization [6.253771639590562]
我々は,Webテーブルの正規化によるLarge Language Models(LLMs)のシンボリック推論性能の向上を目的としたフレームワークであるNormTabを紹介した。
表データのシンボリック推論を支援するために, LLMを用いてテーブル正規化を1回1回1回前処理ステップとして検討する。
WikiTableQuestion や TabFact などの Web テーブルデータセットを用いた実験により,NormTab の活用がシンボル推論性能を大幅に向上することを示す。
論文 参考訳(メタデータ) (2024-06-25T22:40:03Z) - Can Long-Context Language Models Subsume Retrieval, RAG, SQL, and More? [54.667202878390526]
長文言語モデル(LCLM)は、従来、検索システムやデータベースといった外部ツールに依存していたタスクへのアプローチに革命をもたらす可能性がある。
実世界のタスクのベンチマークであるLOFTを導入し、文脈内検索と推論においてLCLMの性能を評価するために設計された数百万のトークンを出力する。
以上の結果からLCLMは,これらのタスクを明示的に訓練したことがないにも関わらず,最先端の検索システムやRAGシステムと競合する驚くべき能力を示した。
論文 参考訳(メタデータ) (2024-06-19T00:28:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。