論文の概要: Accurate Table Question Answering with Accessible LLMs
- arxiv url: http://arxiv.org/abs/2601.03137v1
- Date: Tue, 06 Jan 2026 16:07:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 17:02:13.012018
- Title: Accurate Table Question Answering with Accessible LLMs
- Title(参考訳): アクセシブルLLMを用いた正確なテーブル質問応答
- Authors: Yangfan Jiang, Fei Wei, Ergute Bao, Yaliang Li, Bolin Ding, Yin Yang, Xiaokui Xiao,
- Abstract要約: データベースのテーブルTと自然言語の質問Qが与えられたとき、テーブル質問応答(TQA)タスクは、Tの内容に基づいてQに正確な回答を返すことを目的としている。
最近の最先端のソリューションは、大きな言語モデル(LLM)を活用して高品質な回答を得る。
本稿では,デスクトップやラップトップ上で動作可能な小型でオープンなLLMを用いたTQAに焦点を当てる。
- 参考スコア(独自算出の注目度): 78.91480799683346
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given a table T in a database and a question Q in natural language, the table question answering (TQA) task aims to return an accurate answer to Q based on the content of T. Recent state-of-the-art solutions leverage large language models (LLMs) to obtain high-quality answers. However, most rely on proprietary, large-scale LLMs with costly API access, posing a significant financial barrier. This paper instead focuses on TQA with smaller, open-weight LLMs that can run on a desktop or laptop. This setting is challenging, as such LLMs typically have weaker capabilities than large proprietary models, leading to substantial performance degradation with existing methods. We observe that a key reason for this degradation is that prior approaches often require the LLM to solve a highly sophisticated task using long, complex prompts, which exceed the capabilities of small open-weight LLMs. Motivated by this observation, we present Orchestra, a multi-agent approach that unlocks the potential of accessible LLMs for high-quality, cost-effective TQA. Orchestra coordinates a group of LLM agents, each responsible for a relatively simple task, through a structured, layered workflow to solve complex TQA problems -- akin to an orchestra. By reducing the prompt complexity faced by each agent, Orchestra significantly improves output reliability. We implement Orchestra on top of AgentScope, an open-source multi-agent framework, and evaluate it on multiple TQA benchmarks using a wide range of open-weight LLMs. Experimental results show that Orchestra achieves strong performance even with small- to medium-sized models. For example, with Qwen2.5-14B, Orchestra reaches 72.1% accuracy on WikiTQ, approaching the best prior result of 75.3% achieved with GPT-4; with larger Qwen, Llama, or DeepSeek models, Orchestra outperforms all prior methods and establishes new state-of-the-art results across all benchmarks.
- Abstract(参考訳): データベースにおけるテーブルTと自然言語における質問Qが与えられたとき、テーブル質問応答(TQA)タスクは、Tの内容に基づいてQに正確な回答を返すことを目的としている。
しかし、ほとんどの場合、コストのかかるAPIアクセスを備えたプロプライエタリで大規模なLLMに依存しており、大きな経済的障壁を生じさせています。
本論文では,デスクトップやラップトップ上で動作可能な小型のオープンウェイトLCMを用いたTQAに焦点を当てる。
LLMは大きなプロプライエタリなモデルよりも能力が弱いため、既存のメソッドではパフォーマンスが大幅に低下する。
この劣化の主な理由は、LLMが小さなオープンウェイト LLM の能力を超える長い複雑なプロンプトを用いて高度に高度なタスクを解く必要があることにある。
この観察により,我々は,高品質で費用対効果の高いTQAのために,アクセス可能なLLMの可能性を解放するマルチエージェントアプローチであるOrchestratorを提案する。
オーケストレーションは、複雑なTQA問題を解決するための構造化された階層化されたワークフローを通じて、比較的単純なタスクに責任を持つLLMエージェントのグループをコーディネートする。
各エージェントが直面する迅速な複雑さを減らすことで、Orchestは出力信頼性を大幅に改善する。
我々はオープンソースのマルチエージェントフレームワークであるAgentScope上にOrchestratorを実装し、幅広いオープンウェイトLLMを用いて複数のTQAベンチマークで評価する。
実験結果から,Orchestratorは中小モデルでも高い性能を示すことがわかった。
例えば、Qwen2.5-14Bでは、OrchestratorはWikiTQ上で72.1%の精度に達し、GPT-4で達成された75.3%の最高の事前結果に近づいた。
関連論文リスト
- On the Effectiveness of LLM-as-a-judge for Code Generation and Summarization [54.965787768076254]
大規模言語モデルは、最近、Q&Aのような複雑な自然言語処理タスクの裁判官として活用されている。
コード生成とコード要約という2つのコード関連タスクに対するLLMs-as-a-judgeの有効性について検討した。
論文 参考訳(メタデータ) (2025-07-22T13:40:26Z) - Towards Efficient Multi-LLM Inference: Characterization and Analysis of LLM Routing and Hierarchical Techniques [14.892995952768352]
言語モデル(LM)は、テキスト生成、要約、質問応答といったタスクに優れています。
彼らの推論は計算コストが高く、ハードウェア、電力、帯域幅に制限のある設定でエネルギーを集中的に消費する。
近年のアプローチでは、クエリの複雑さに基づいて、動的に計算資源を割り当てる複数のLLMインテリジェントモデル選択戦略が導入されている。
論文 参考訳(メタデータ) (2025-06-06T23:13:08Z) - Efficient Multi-Agent Collaboration with Tool Use for Online Planning in Complex Table Question Answering [16.790216473975146]
複雑なテーブル質問応答(TQA)は、複数のステップや複数カテゴリの推論のような複雑な推論を必要とする質問に答えることを目的としている。
以前のアプローチでは、クローズドソースの大規模言語モデル(LLM)か、微調整のオープンウェイトLLMを利用することで、顕著な性能を示した。
クローズドソースモデルや微調整を必要としないフレームワークであるMulti-Agent Collaboration with Tool Use (MACT)を提案する。
論文 参考訳(メタデータ) (2024-12-28T13:13:33Z) - TQA-Bench: Evaluating LLMs for Multi-Table Question Answering with Scalable Context and Symbolic Extension [8.489816179329832]
TQA-Benchは,大規模言語モデル(LLM)の複雑なQAタスクをリレーショナルデータ上で処理する能力を評価するために設計された,新しいマルチテーブルQAベンチマークである。
我々のベンチマークでは、現実世界のパブリックデータセットから得られた多様なリレーショナルデータベースインスタンスを組み込んでいます。
我々は、70億から700億のパラメータにまたがる、オープンソースとクローズドソースの両方のLLMを体系的に評価する。
論文 参考訳(メタデータ) (2024-11-29T06:48:13Z) - Seek and Solve Reasoning for Table Question Answering [49.006950918895306]
本稿では,タスク単純化時の推論プロセスが,タスク自体の単純化よりも有用であることを示す。
本稿では,LLMにまず関連情報を求め,質問に答えるように指示するSeek-and-solving Pipelineを提案する。
本稿では, SS-CoT経路を用いた実演を用いて, 複雑なTQA課題の解決にLLMを誘導する単一ステップTQA解決プロンプトをこのパイプラインから蒸留する。
論文 参考訳(メタデータ) (2024-09-09T02:41:00Z) - LLM-Pruner: On the Structural Pruning of Large Language Models [65.02607075556742]
大規模言語モデル(LLM)は、言語理解と生成において顕著な能力を示している。
タスク非依存であり、元のトレーニングデータセットへの依存を最小限に抑えるという2つの制約の範囲内でLLMの圧縮に取り組む。
LLM-Prunerという名前のこの手法は、非臨界結合構造を選択的に除去する構造プルーニングを採用する。
論文 参考訳(メタデータ) (2023-05-19T12:10:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。