論文の概要: Planning for Success: Exploring LLM Long-term Planning Capabilities in Table Understanding
- arxiv url: http://arxiv.org/abs/2508.17005v1
- Date: Sat, 23 Aug 2025 12:24:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.295054
- Title: Planning for Success: Exploring LLM Long-term Planning Capabilities in Table Understanding
- Title(参考訳): 成功のための計画:テーブル理解におけるLLM長期計画能力の探索
- Authors: Thi-Nhung Nguyen, Hoang Ngo, Dinh Phung, Thuy-Trang Vu, Dat Quoc Nguyen,
- Abstract要約: 本稿では,大規模言語モデルの長期計画能力を活用してテーブル理解を強化することを提案する。
当社のアプローチでは,ステップが緊密に相互接続され,最終的な目標を達成する,長期計画の実行を可能にします。
本手法は,WikiTableQuestionsおよびTabFactデータセット上での最先端のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 24.3302301035859
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Table understanding is key to addressing challenging downstream tasks such as table-based question answering and fact verification. Recent works have focused on leveraging Chain-of-Thought and question decomposition to solve complex questions requiring multiple operations on tables. However, these methods often suffer from a lack of explicit long-term planning and weak inter-step connections, leading to miss constraints within questions. In this paper, we propose leveraging the long-term planning capabilities of large language models (LLMs) to enhance table understanding. Our approach enables the execution of a long-term plan, where the steps are tightly interconnected and serve the ultimate goal, an aspect that methods based on Chain-of-Thought and question decomposition lack. In addition, our method effectively minimizes the inclusion of unnecessary details in the process of solving the next short-term goals, a limitation of methods based on Chain-of-Thought. Extensive experiments demonstrate that our method outperforms strong baselines and achieves state-of-the-art performance on WikiTableQuestions and TabFact datasets.
- Abstract(参考訳): テーブル理解は、テーブルベースの質問応答や事実検証といった下流の課題に対処するための鍵となる。
最近の研究は、テーブル上の複数の操作を必要とする複雑な問題を解決するために、Chain-of-ThoughtとQQの分解を活用することに重点を置いている。
しかし、これらの手法は、しばしば明示的な長期計画の欠如と、ステップ間接続の弱さに悩まされ、問題内の制約を見逃してしまう。
本稿では,大規模言語モデル(LLM)の長期計画能力を活用して,テーブル理解を強化することを提案する。
我々のアプローチは、ステップが緊密に相互接続され、最終的な目標に役立ち、チェーン・オブ・ソートと質問分解の欠如に基づく手法である長期計画の実行を可能にする。
さらに,本手法は,次の短期目標,すなわちChain-of-Thoughtに基づく手法の限界を解く過程において,不要な詳細の包含を効果的に最小化する。
WikiTableQuestionsとTabFactのデータセット上で,本手法が強いベースラインを上回り,最先端のパフォーマンスを実現していることを示す。
関連論文リスト
- LLM-Symbolic Integration for Robust Temporal Tabular Reasoning [69.27153114778748]
本研究では,システムおよび制御された評価のための合成データセットであるTempTabQA-Cを紹介する。
この構造化アプローチにより、LLM(Large Language Models)はsqlクエリの生成と実行を可能にし、一般化とバイアス軽減の強化を行う。
論文 参考訳(メタデータ) (2025-06-06T05:14:04Z) - Decompose, Plan in Parallel, and Merge: A Novel Paradigm for Large Language Models based Planning with Multiple Constraints [31.631832677979826]
本稿では,並列計画パラダイムを提案し,並列におけるサブタスク計画とマージを最終計画(DPPM)に分割する。
具体的には、制約に基づいて複雑なタスクをサブタスクに分解し、各サブタスクのサブプランを並列に生成し、それらをグローバルプランにマージする。
実験の結果,DPPMは旅行計画タスクにおいて既存の手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2025-06-03T09:33:13Z) - HyperTree Planning: Enhancing LLM Reasoning via Hierarchical Thinking [109.09735490692202]
提案するHyperTree Planning(HTP)は,高木構造プランニングアウトラインを構成する新しい推論パラダイムである。
実験ではHTPの有効性を実証し、Gemini-1.5-ProによるTravelPlannerベンチマークで最先端の精度を実現し、o1-previewよりも3.6倍の性能向上を実現した。
論文 参考訳(メタデータ) (2025-05-05T02:38:58Z) - NeedleInATable: Exploring Long-Context Capability of Large Language Models towards Long-Structured Tables [32.9031799179503]
textscNeedleInATable (NIAT)は、各テーブルセルを針として扱い、セルの位置やルックアップ質問に基づいてターゲットセルを抽出するモデルを必要とする。
私たちのデータ、コード、モデルは、将来の研究を促進するためにリリースされます。
論文 参考訳(メタデータ) (2025-04-09T03:46:56Z) - Interactive and Expressive Code-Augmented Planning with Large Language Models [62.799579304821826]
大きな言語モデル(LLM)は、常識的推論と対話的な意思決定において強力な能力を示す。
近年,制御フローなどのコード・アジャセント技術を用いてLCM出力を構造化し,計画性能を向上させる技術が提案されている。
完全コード表現で動的なLEM計画手法であるREPL-Planを提案する。
論文 参考訳(メタデータ) (2024-11-21T04:23:17Z) - Layer-of-Thoughts Prompting (LoT): Leveraging LLM-Based Retrieval with Constraint Hierarchies [0.3946282433423277]
Layer-of-Thoughts Prompting (LoT)は、制約階層を使用して、所定のクエリに対する候補応答をフィルタリングし、精査する。
LoTは情報検索タスクの精度と理解性を著しく改善する。
論文 参考訳(メタデータ) (2024-10-16T01:20:44Z) - Unlocking Reasoning Potential in Large Langauge Models by Scaling Code-form Planning [94.76546523689113]
CodePlanは、テキストコード形式の計画を生成し、追跡するフレームワークで、高いレベルの構造化された推論プロセスの概要を擬似コードで示します。
CodePlanは、洗練された推論タスク固有のリッチなセマンティクスと制御フローを効果的にキャプチャする。
反応を直接生成するのに比べて25.1%の相対的な改善が達成されている。
論文 参考訳(メタデータ) (2024-09-19T04:13:58Z) - Unified Task and Motion Planning using Object-centric Abstractions of
Motion Constraints [56.283944756315066]
本稿では,タスクとモーションプランニングを一つの検索に統一するTAMP手法を提案する。
我々のアプローチは、オフザシェルフAIサーチの計算効率を活用して、物理的に実現可能な計画が得られるような、オブジェクト中心の動作制約の抽象化に基づいている。
論文 参考訳(メタデータ) (2023-12-29T14:00:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。