論文の概要: AGENTIQL: An Agent-Inspired Multi-Expert Framework for Text-to-SQL Generation
- arxiv url: http://arxiv.org/abs/2510.10661v2
- Date: Tue, 14 Oct 2025 11:24:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 14:23:56.906466
- Title: AGENTIQL: An Agent-Inspired Multi-Expert Framework for Text-to-SQL Generation
- Title(参考訳): AgentIQL: テキストからSQL生成のためのエージェントインスパイアされたマルチ専門家フレームワーク
- Authors: Omid Reza Heidari, Siobhan Reid, Yassine Yaakoubi,
- Abstract要約: AgentIQLはエージェントにインスパイアされたフレームワークで、質問分解のための推論エージェント、サブクエリ生成のためのコーディングエージェント、列選択のための洗練ステップを組み合わせたものだ。
我々は、Planner&Executorのマージ戦略を用いて、14Bモデルで最大86.07%のEXを達成し、Spiderベンチマークで AgentIQLを評価した。
正確性を超えて、AgentIQLは、中間的推論ステップを公開することによって透明性を高め、セマンティック解析に対する堅牢でスケーラブルで解釈可能なアプローチを提供する。
- 参考スコア(独自算出の注目度): 0.509780930114934
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LLMs have advanced text-to-SQL generation, yet monolithic architectures struggle with complex reasoning and schema diversity. We propose AGENTIQL, an agent-inspired multi-expert framework that combines a reasoning agent for question decomposition, a coding agent for sub-query generation, and a refinement step for column selection. An adaptive router further balances efficiency and accuracy by selecting between our modular pipeline and a baseline parser. Several steps in the pipeline can be executed in parallel, making the framework scalable to larger workloads. Evaluated on the Spider benchmark, AGENTIQL improves execution accuracy and interpretability and achieves up to 86.07% EX with 14B models using the Planner&Executor merging strategy. The attained performance is contingent upon the efficacy of the routing mechanism, thereby narrowing the gap to GPT-4-based SOTA (89.65% EX) while using much smaller open-source LLMs. Beyond accuracy, AGENTIQL enhances transparency by exposing intermediate reasoning steps, offering a robust, scalable, and interpretable approach to semantic parsing.
- Abstract(参考訳): LLMには高度なテキストからSQL生成があるが、モノリシックなアーキテクチャは複雑な推論とスキーマの多様性に苦慮している。
本稿では,質問分解のための推論エージェント,サブクエリ生成のための符号化エージェント,列選択のための洗練ステップを組み合わせたエージェントインスパイアされたマルチエキスパートフレームワークであるAgentIQLを提案する。
適応ルータは、モジュールパイプラインとベースラインパーサを選択することで、効率と精度をさらに高める。
パイプライン内のいくつかのステップを並列に実行することで、フレームワークを大規模ワークロードにスケーラブルにする。
Spiderベンチマークで評価されたAgentIQLは、実行精度と解釈性を改善し、Planner&Executorマージ戦略を使用して14Bモデルで最大86.07%のEXを達成する。
これによりGPT-4ベースのSOTA(89.65% EX)にギャップを狭め、より小さなオープンソースLCMを使用する。
正確性を超えて、AgentIQLは、中間的推論ステップを公開することによって透明性を高め、セマンティック解析に対する堅牢でスケーラブルで解釈可能なアプローチを提供する。
関連論文リスト
- Flash-Searcher: Fast and Effective Web Agents via DAG-Based Parallel Execution [48.7788770680643]
Flash-Searcherは、新しい並列エージェント推論フレームワークである。
複雑なタスクを明示的な依存関係でサブタスクに分解し、独立した推論パスの同時実行を可能にする。
BrowseCompでは67.7%の精度で、xbench-DeepSearchでは83%、エージェントの実行手順は現在のフレームワークに比べて最大35%削減されている。
論文 参考訳(メタデータ) (2025-09-29T17:39:30Z) - Agentar-Scale-SQL: Advancing Text-to-SQL through Orchestrated Test-Time Scaling [11.577572131517714]
最先端のSOTA (State-of-the-art) テキスト・トゥ・ザ・アーティカルな手法は、BIRDのような計算ベンチマークの挑戦に関して、人間の専門家よりかなり遅れている。
テスト時間のスケーリングを探求する現在のアプローチでは、組織化された戦略が欠如し、モデルの内部推論プロセスを無視しています。
論文 参考訳(メタデータ) (2025-09-29T07:50:02Z) - RAISE: Reasoning Agent for Interactive SQL Exploration [47.77323087050061]
本稿では,スキーマリンク,クエリ生成,反復的改善を1つのエンドツーエンドコンポーネントに統一する新しいフレームワークを提案する。
本手法は、不慣れなデータベースを扱う際に、人間がどう答えるかをエミュレートする。
論文 参考訳(メタデータ) (2025-06-02T03:07:08Z) - RSL-SQL: Robust Schema Linking in Text-to-SQL Generation [51.00761167842468]
本稿では、双方向スキーマリンク、コンテキスト情報拡張、バイナリ選択戦略、マルチターン自己補正を組み合わせたRSLと呼ばれる新しいフレームワークを提案する。
ベンチマークの結果,オープンソースのソリューション間でのSOTA実行精度は67.2%,BIRDは87.9%,GPT-4オクルージョンは87.9%であった。
提案手法は,DeepSeekを同一のプロンプトで適用した場合,GPT-4ベースのテキスト・ツー・シークシステムよりも優れている。
論文 参考訳(メタデータ) (2024-10-31T16:22:26Z) - MAC-SQL: A Multi-Agent Collaborative Framework for Text-to-SQL [47.120862170230566]
最近のText-to-Yourselfメソッドは通常、"巨大な"データベース上での大幅なパフォーマンス劣化に悩まされる。
我々は,新しいテキスト・ツー・ユー・セルフ LLM ベースのマルチエージェント協調フレームワーク MAC を紹介する。
我々のフレームワークでは、GPT-4を全てのエージェントタスクの強力なバックボーンとして利用し、フレームワークの上限を決定する。
次に、Code 7Bを活用することで、オープンソースの命令フォローモデルであるsql-Llamaを微調整し、GPT-4のように全てのタスクを達成します。
論文 参考訳(メタデータ) (2023-12-18T14:40:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。