論文の概要: No Universal Prompt: Unifying Reasoning through Adaptive Prompting for Temporal Table Reasoning
- arxiv url: http://arxiv.org/abs/2506.11246v1
- Date: Thu, 12 Jun 2025 19:32:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 17:50:49.56103
- Title: No Universal Prompt: Unifying Reasoning through Adaptive Prompting for Temporal Table Reasoning
- Title(参考訳): No Universal Prompt: 時間表推論のための適応型プロンプトによる推論の統合
- Authors: Kushagra Dixit, Abhishek Rajgaria, Harshavardhan Kalalbandi, Dan Roth, Vivek Gupta,
- Abstract要約: 時間表推論は大規模言語モデル(LLM)にとって重要な課題である
複数のプロンプト法が存在するにもかかわらず、表推論への影響は未解明のままである。
本研究は,様々なシナリオに対して最適なアプローチを決定するために,多様なテーブルタイプにまたがる複数のプロンプト手法について検討する。
- 参考スコア(独自算出の注目度): 44.50201310715929
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Temporal Table Reasoning is a critical challenge for Large Language Models (LLMs), requiring effective prompting techniques to extract relevant insights. Despite existence of multiple prompting methods, their impact on table reasoning remains largely unexplored. Furthermore, the performance of these models varies drastically across different table and context structures, making it difficult to determine an optimal approach. This work investigates multiple prompting technique across diverse table types to determine optimal approaches for different scenarios. We find that performance varies based on entity type, table structure, requirement of additional context and question complexity, with NO single method consistently outperforming others. To mitigate these challenges, we introduce SEAR, an adaptive prompting framework inspired by human reasoning that dynamically adjusts based on context characteristics and integrates a structured reasoning. Our results demonstrate that SEAR achieves superior performance across all table types compared to other baseline prompting techniques. Additionally, we explore the impact of table structure refactoring, finding that a unified representation enhances model's reasoning.
- Abstract(参考訳): 時間表推論はLarge Language Models(LLM)にとって重要な課題であり、関連する洞察を抽出するために効果的なプロンプト技術を必要とする。
複数のプロンプト法が存在するにもかかわらず、表推論への影響は未解明のままである。
さらに、これらのモデルの性能はテーブルやコンテキスト構造によって大きく異なるため、最適なアプローチを決定することは困難である。
本研究は,様々なシナリオに対して最適なアプローチを決定するために,多様なテーブルタイプにまたがる複数のプロンプト手法について検討する。
性能は、エンティティタイプ、テーブル構造、追加のコンテキストと質問の複雑さの要件によって異なり、NOメソッドは一貫して他よりも優れています。
これらの課題を軽減するために、人間の推論にインスパイアされた適応的プロンプトフレームワークであるSEARを導入し、コンテキスト特性に基づいて動的に調整し、構造化された推論を統合する。
その結果、SEARは、他のベースラインプロンプト技術と比較して、全てのテーブルタイプで優れた性能を発揮することが示された。
さらに、表構造リファクタリングの影響について検討し、統一表現がモデルの推論を促進することを明らかにする。
関連論文リスト
- LLM-Symbolic Integration for Robust Temporal Tabular Reasoning [69.27153114778748]
本研究では,システムおよび制御された評価のための合成データセットであるTempTabQA-Cを紹介する。
この構造化アプローチにより、LLM(Large Language Models)はsqlクエリの生成と実行を可能にし、一般化とバイアス軽減の強化を行う。
論文 参考訳(メタデータ) (2025-06-06T05:14:04Z) - Multimodal Tabular Reasoning with Privileged Structured Information [67.40011423365712]
ブリッジインfOrmation (sc Turbo) を用いたタブウラー推論(TabUlar Reasoning)について紹介する。
sc TurboはDeepSeek-R1をベースにした構造対応の推論トレースジェネレータの恩恵を受ける。
sc Turboは、複数のデータセットで最先端のパフォーマンス(+7.2%対以前のSOTA)を達成する。
論文 参考訳(メタデータ) (2025-06-04T15:46:30Z) - The Mighty ToRR: A Benchmark for Table Reasoning and Robustness [45.420943398134845]
ToRRはテーブル推論とロバストネスのベンチマークであり、テーブル関連のタスクにおけるモデル性能とロバストネスを測定している。
本稿では,ToRR上での先行モデルの結果を総合的に分析するとともに,リーダーボードを提案する。
論文 参考訳(メタデータ) (2025-02-26T18:56:38Z) - HIPPO: Enhancing the Table Understanding Capability of Large Language Models through Hybrid-Modal Preference Optimization [48.240146108630704]
本稿では,HybrId-modal Preference oPtimizatiOn(HIPPO)モデルについて述べる。
HIPPOの有効性を示す表質問応答と表事実検証に関する実験結果を得た。
論文 参考訳(メタデータ) (2025-02-24T16:50:55Z) - ALTER: Augmentation for Large-Table-Based Reasoning [5.164923314261229]
ALTER(Augmentation for Large-Table-Based Reasoning)は、NL (Free-form Natural Language) とNL (Augmentation for Large-Table-Based Reasoning) の双方の質問において、潜在的な拡張可能性を活用するために設計されたフレームワークである。
テーブルからの関連データの小さなサブセットのみを利用することで、ALTERはテーブルベースの推論ベンチマークで優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-07-03T12:34:45Z) - TAP4LLM: Table Provider on Sampling, Augmenting, and Packing Semi-structured Data for Large Language Model Reasoning [55.33939289989238]
テーブルベースタスクにおいて,大規模言語モデル(LLM)を効果的に活用するための汎用プリプロセッサスイートとして,TAP4LLMを提案する。
1)大きなテーブルをクエリセマンティクスに基づいて管理可能なサブテーブルに分解するテーブルサンプリング、(2)外部ソースやモデルから追加の知識でテーブルを拡張するテーブル拡張、(3)テーブルパッキングとシリアライゼーションによりテーブルをLLMの理解に適したさまざまなフォーマットに変換する。
論文 参考訳(メタデータ) (2023-12-14T15:37:04Z) - Optimization Techniques for Unsupervised Complex Table Reasoning via Self-Training Framework [5.351873055148804]
自己学習フレームワークは複雑な論理を持つ多様な合成データを生成する。
我々は「テーブル・テキスト・マニピュレータ(Table-Text Manipulator)」を用いて、共同テーブル・テキスト推論シナリオの処理を最適化する。
UCTRSTは、異なるタスクやドメインにおける教師付きモデルパフォーマンスの90%以上を達成する。
論文 参考訳(メタデータ) (2022-12-20T09:15:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。