論文の概要: MATA: Multi-Agent Framework for Reliable and Flexible Table Question Answering
- arxiv url: http://arxiv.org/abs/2602.09642v1
- Date: Tue, 10 Feb 2026 10:43:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.501123
- Title: MATA: Multi-Agent Framework for Reliable and Flexible Table Question Answering
- Title(参考訳): MATA: 信頼性とフレキシブルなテーブル質問応答のためのマルチエージェントフレームワーク
- Authors: Sieun Hyeon, Jusang Oh, Sunghwan Steve Cho, Jaeyoung Do,
- Abstract要約: マルチエージェントのテーブルQAフレームワークであるMATAを導入し、複数の補完的推論パスと、小さな言語モデルで構築されたツールセットを紹介する。
MATAは、与えられたテーブルと質問に対する多様な推論スタイルを通じて候補回答を生成し、その後、最適な回答を洗練または選択する。
高価なLarge Language Modelsエージェントコールを最小限に抑え、全体的な効率を向上させるために設計されたアルゴリズムが組み込まれている。
- 参考スコア(独自算出の注目度): 6.7895562627088735
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in Large Language Models (LLMs) have significantly improved table understanding tasks such as Table Question Answering (TableQA), yet challenges remain in ensuring reliability, scalability, and efficiency, especially in resource-constrained or privacy-sensitive environments. In this paper, we introduce MATA, a multi-agent TableQA framework that leverages multiple complementary reasoning paths and a set of tools built with small language models. MATA generates candidate answers through diverse reasoning styles for a given table and question, then refines or selects the optimal answer with the help of these tools. Furthermore, it incorporates an algorithm designed to minimize expensive LLM agent calls, enhancing overall efficiency. MATA maintains strong performance with small, open-source models and adapts easily across various LLM types. Extensive experiments on two benchmarks of varying difficulty with ten different LLMs demonstrate that MATA achieves state-of-the-art accuracy and highly efficient reasoning while avoiding excessive LLM inference. Our results highlight that careful orchestration of multiple reasoning pathways yields scalable and reliable TableQA. The code is available at https://github.com/AIDAS-Lab/MATA.
- Abstract(参考訳): 大規模言語モデル(LLM)の最近の進歩は、テーブル質問回答(TableQA)のようなテーブル理解タスクを大幅に改善している。
本稿では,複数の相補的推論経路と小言語モデルを用いたツールセットを利用するマルチエージェントTableQAフレームワークであるMATAを紹介する。
MATAは、与えられたテーブルと質問に対する多様な推論スタイルを通じて候補回答を生成し、これらのツールの助けを借りて最適な回答を洗練または選択する。
さらに、高価なLLMエージェント呼び出しを最小限に抑え、全体的な効率を向上させるために設計されたアルゴリズムも組み込まれている。
MATAは、小型でオープンソースのモデルで強力な性能を維持し、様々なLLMタイプに容易に適応できる。
10種類のLLMで異なる難易度を示す2つのベンチマークにおいて、MATAは過剰なLLM推論を回避しつつ、最先端の精度と高効率な推論を実現することを示した。
その結果,複数の推論経路を慎重にオーケストレーションすることで,スケーラブルで信頼性の高いTableQAが得られることがわかった。
コードはhttps://github.com/AIDAS-Lab/MATAで公開されている。
関連論文リスト
- Accurate Table Question Answering with Accessible LLMs [78.91480799683346]
データベースのテーブルTと自然言語の質問Qが与えられたとき、テーブル質問応答(TQA)タスクは、Tの内容に基づいてQに正確な回答を返すことを目的としている。
最近の最先端のソリューションは、大きな言語モデル(LLM)を活用して高品質な回答を得る。
本稿では,デスクトップやラップトップ上で動作可能な小型でオープンなLLMを用いたTQAに焦点を当てる。
論文 参考訳(メタデータ) (2026-01-06T16:07:25Z) - Efficient Multi-Agent Collaboration with Tool Use for Online Planning in Complex Table Question Answering [16.790216473975146]
複雑なテーブル質問応答(TQA)は、複数のステップや複数カテゴリの推論のような複雑な推論を必要とする質問に答えることを目的としている。
以前のアプローチでは、クローズドソースの大規模言語モデル(LLM)か、微調整のオープンウェイトLLMを利用することで、顕著な性能を示した。
クローズドソースモデルや微調整を必要としないフレームワークであるMulti-Agent Collaboration with Tool Use (MACT)を提案する。
論文 参考訳(メタデータ) (2024-12-28T13:13:33Z) - Interpretable LLM-based Table Question Answering [5.484058026469263]
テーブル質問回答(Table QA)の解釈可能性は非常に重要です。
本稿では,モデルの意思決定過程を解釈可能なテーブルQA法を提案する。
論文 参考訳(メタデータ) (2024-12-16T22:44:31Z) - SELF-GUIDE: Better Task-Specific Instruction Following via Self-Synthetic Finetuning [70.21358720599821]
大規模言語モデル(LLM)は、適切な自然言語プロンプトを提供する際に、多様なタスクを解決するという約束を持っている。
学生LLMからタスク固有の入出力ペアを合成する多段階メカニズムであるSELF-GUIDEを提案する。
ベンチマークの指標から,分類タスクに約15%,生成タスクに18%の絶対的な改善を報告した。
論文 参考訳(メタデータ) (2024-07-16T04:41:58Z) - Q*: Improving Multi-step Reasoning for LLMs with Deliberative Planning [53.6472920229013]
大規模言語モデル(LLM)は多くの自然言語タスクにおいて印象的な能力を示している。
LLMは多段階推論を行う際にエラー、幻覚、矛盾する文を生成する傾向がある。
本稿では,LLMの復号化過程を検討計画で導くためのフレームワークであるQ*を紹介する。
論文 参考訳(メタデータ) (2024-06-20T13:08:09Z) - TAP4LLM: Table Provider on Sampling, Augmenting, and Packing Semi-structured Data for Large Language Model Reasoning [55.33939289989238]
テーブルベースタスクにおいて,大規模言語モデル(LLM)を効果的に活用するための汎用プリプロセッサスイートとして,TAP4LLMを提案する。
1)大きなテーブルをクエリセマンティクスに基づいて管理可能なサブテーブルに分解するテーブルサンプリング、(2)外部ソースやモデルから追加の知識でテーブルを拡張するテーブル拡張、(3)テーブルパッキングとシリアライゼーションによりテーブルをLLMの理解に適したさまざまなフォーマットに変換する。
論文 参考訳(メタデータ) (2023-12-14T15:37:04Z) - SatLM: Satisfiability-Aided Language Models Using Declarative Prompting [68.40726892904286]
本研究では,大規模言語モデル (LLM) の推論能力を向上させるために,新しい満足度支援言語モデリング (SatLM) 手法を提案する。
我々はLLMを用いて命令型プログラムではなく宣言型タスク仕様を生成し、既製の自動定理証明器を利用して最終解を導出する。
我々はSATLMを8つの異なるデータセット上で評価し、命令パラダイムにおいてプログラム支援されたLMよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-05-16T17:55:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。