論文の概要: RoT: Enhancing Table Reasoning with Iterative Row-Wise Traversals
- arxiv url: http://arxiv.org/abs/2505.15110v1
- Date: Wed, 21 May 2025 05:03:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:58.876331
- Title: RoT: Enhancing Table Reasoning with Iterative Row-Wise Traversals
- Title(参考訳): RoT: 反復的なRow-Wiseトラバーサルによるテーブル推論の強化
- Authors: Xuanliang Zhang, Dingzirui Wang, Keyan Xu, Qingfu Zhu, Wanxiang Che,
- Abstract要約: 大きな言語モデル(RLLM)とLong Chain-of-Thought(Long CoT)を関連付けることで、推論能力が大幅に向上した。
ロングCoTは訓練のコストが高く、テーブル内容の幻覚のために信頼性が低い。
本稿では,Row-of-Thought (RoT)を提案する。
RoTは非推論モデルを使用し、RLLMを平均4.3%上回り、WikiTableQuestionsとTableBenchで同等のモデルで最先端の結果を得る。
- 参考スコア(独自算出の注目度): 44.89146464166763
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The table reasoning task, crucial for efficient data acquisition, aims to answer questions based on the given table. Recently, reasoning large language models (RLLMs) with Long Chain-of-Thought (Long CoT) significantly enhance reasoning capabilities, leading to brilliant performance on table reasoning. However, Long CoT suffers from high cost for training and exhibits low reliability due to table content hallucinations. Therefore, we propose Row-of-Thought (RoT), which performs iteratively row-wise table traversal, allowing for reasoning extension and reflection-based refinement at each traversal. Scaling reasoning length by row-wise traversal and leveraging reflection capabilities of LLMs, RoT is training-free. The sequential traversal encourages greater attention to the table, thus reducing hallucinations. Experiments show that RoT, using non-reasoning models, outperforms RLLMs by an average of 4.3%, and achieves state-of-the-art results on WikiTableQuestions and TableBench with comparable models, proving its effectiveness. Also, RoT outperforms Long CoT with fewer reasoning tokens, indicating higher efficiency.
- Abstract(参考訳): 効率的なデータ取得に不可欠なテーブル推論タスクは、与えられたテーブルに基づいて質問に答えることを目的としている。
近年,Long Chain-of-Thought (Long CoT) を用いた大規模言語モデル (RLLM) の推論能力が大幅に向上し,テーブル推論の性能が向上した。
しかしながら、Long CoTはトレーニングのコストが高く、テーブル内容の幻覚のために信頼性が低い。
そこで本研究では,Row-of-Thought (RoT) を提案する。
行ワイドトラバーサルによる推論長のスケーリングとLLMのリフレクション機能を活用したRoTは、トレーニング不要である。
連続的なトラバーサルはテーブルに注意を喚起し、幻覚を減少させる。
実験の結果、RoTは非推論モデルを使用して、RLLMを平均4.3%上回り、WikiTableQuestionsとTableBenchの最先端の結果を同等のモデルで達成し、その有効性を証明した。
また、RoTはLong CoTよりも、推論トークンが少なく、高い効率を示す。
関連論文リスト
- Unlocking General Long Chain-of-Thought Reasoning Capabilities of Large Language Models via Representation Engineering [59.34894142132706]
既存の作業では、いくつかの例だけをチューニングすることで、長いCoT推論の能力を効率的に引き出すことができる。
このことは、LLMの一般的な能力であるCoT推論の長さを調査する動機となっている。
LLMの一般的な長大CoT推論能力を解き放つ新しい表現工学手法であるGLoREを提案する。
論文 参考訳(メタデータ) (2025-03-14T11:30:37Z) - When More is Less: Understanding Chain-of-Thought Length in LLMs [53.77747102201451]
CoT推論は大規模言語モデル(LLM)の多段階推論能力を高める
しかし、ほとんどのモデルやタスクでは、CoT長の増加は一貫して推論精度の向上につながりますか?
本稿では, 推論ステップの数が増加するにつれて, 性能は向上するが, 最終的には低下する,というニュアンスな関係を観察する。
論文 参考訳(メタデータ) (2025-02-11T05:28:59Z) - TabSQLify: Enhancing Reasoning Capabilities of LLMs Through Table Decomposition [6.253771639590562]
テーブル推論は、自然言語の質問と構造化データの両方を理解する必要がある難しいタスクである。
テキスト・ツー・ジェネレーションを利用したテーブルを,より小さく,関連するサブテーブルに分解する新しい方法であるTabifyを提案する。
WikiTQベンチマークでは,64.7%の精度で精度が向上した。
論文 参考訳(メタデータ) (2024-04-15T21:42:20Z) - A Survey of Table Reasoning with Large Language Models [55.2326738851157]
大規模言語モデル(LLM)の使用は、テーブル推論の主流となる。
LLM時代におけるテーブル推論性能の向上に使用される主流技術について分析する。
本研究は,既存手法の改良と実用化の拡充の両面から研究の方向性を示す。
論文 参考訳(メタデータ) (2024-02-13T07:17:52Z) - Chain-of-Table: Evolving Tables in the Reasoning Chain for Table
Understanding [79.9461269253121]
そこで我々は、中間思考のプロキシとして、図表データを推論チェーンで明示的に使用するChain-of-Tableフレームワークを提案する。
Chain-of-TableはWikiTQ、FeTaQA、TabFactベンチマークで最新のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-01-09T07:46:26Z) - Large Language Models are few(1)-shot Table Reasoners [31.036914270008978]
大規模言語モデル(LLM)は、テキスト推論タスクを解くために、非常に優れた数ショット推論器である。
本稿では,LLMが数発の文脈内学習でテーブルタスクでどれだけうまく機能するかを理解することを目的としている。
論文 参考訳(メタデータ) (2022-10-13T04:08:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。