論文の概要: AGENTIQL: An Agent-Inspired Multi-Expert Framework for Text-to-SQL Generation
- arxiv url: http://arxiv.org/abs/2510.10661v2
- Date: Tue, 14 Oct 2025 11:24:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 14:23:56.906466
- Title: AGENTIQL: An Agent-Inspired Multi-Expert Framework for Text-to-SQL Generation
- Title(参考訳): AgentIQL: テキストからSQL生成のためのエージェントインスパイアされたマルチ専門家フレームワーク
- Authors: Omid Reza Heidari, Siobhan Reid, Yassine Yaakoubi,
- Abstract要約: AgentIQLはエージェントにインスパイアされたフレームワークで、質問分解のための推論エージェント、サブクエリ生成のためのコーディングエージェント、列選択のための洗練ステップを組み合わせたものだ。
我々は、Planner&Executorのマージ戦略を用いて、14Bモデルで最大86.07%のEXを達成し、Spiderベンチマークで AgentIQLを評価した。
正確性を超えて、AgentIQLは、中間的推論ステップを公開することによって透明性を高め、セマンティック解析に対する堅牢でスケーラブルで解釈可能なアプローチを提供する。
- 参考スコア(独自算出の注目度): 0.509780930114934
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LLMs have advanced text-to-SQL generation, yet monolithic architectures struggle with complex reasoning and schema diversity. We propose AGENTIQL, an agent-inspired multi-expert framework that combines a reasoning agent for question decomposition, a coding agent for sub-query generation, and a refinement step for column selection. An adaptive router further balances efficiency and accuracy by selecting between our modular pipeline and a baseline parser. Several steps in the pipeline can be executed in parallel, making the framework scalable to larger workloads. Evaluated on the Spider benchmark, AGENTIQL improves execution accuracy and interpretability and achieves up to 86.07% EX with 14B models using the Planner&Executor merging strategy. The attained performance is contingent upon the efficacy of the routing mechanism, thereby narrowing the gap to GPT-4-based SOTA (89.65% EX) while using much smaller open-source LLMs. Beyond accuracy, AGENTIQL enhances transparency by exposing intermediate reasoning steps, offering a robust, scalable, and interpretable approach to semantic parsing.
- Abstract(参考訳): LLMには高度なテキストからSQL生成があるが、モノリシックなアーキテクチャは複雑な推論とスキーマの多様性に苦慮している。
本稿では,質問分解のための推論エージェント,サブクエリ生成のための符号化エージェント,列選択のための洗練ステップを組み合わせたエージェントインスパイアされたマルチエキスパートフレームワークであるAgentIQLを提案する。
適応ルータは、モジュールパイプラインとベースラインパーサを選択することで、効率と精度をさらに高める。
パイプライン内のいくつかのステップを並列に実行することで、フレームワークを大規模ワークロードにスケーラブルにする。
Spiderベンチマークで評価されたAgentIQLは、実行精度と解釈性を改善し、Planner&Executorマージ戦略を使用して14Bモデルで最大86.07%のEXを達成する。
これによりGPT-4ベースのSOTA(89.65% EX)にギャップを狭め、より小さなオープンソースLCMを使用する。
正確性を超えて、AgentIQLは、中間的推論ステップを公開することによって透明性を高め、セマンティック解析に対する堅牢でスケーラブルで解釈可能なアプローチを提供する。
関連論文リスト
- Refer-Agent: A Collaborative Multi-Agent System with Reasoning and Reflection for Referring Video Object Segmentation [50.22481337087162]
Referring Video Object (RVOS) は、テキストクエリに基づくビデオ内のオブジェクトのセグメンテーションを目的としている。
Refer-Agent (Refer-Agent) は、共用多エージェントシステムである。
論文 参考訳(メタデータ) (2026-02-03T14:48:12Z) - DDL2PropBank Agent: Benchmarking Multi-Agent Frameworks' Developer Experience Through a Novel Relational Schema Mapping Task [9.51787137194505]
DDL2PropBankは、関係データベーススキーマをPropBankロールセットにマッピングする新しいベンチマークタスクである。
10のフレームワークで同一のエージェントロジックを実装し、(i)静的解析によるコードの複雑さと(ii)AIアシスト性という2つの次元に沿って評価する。
Pydantic AIとAgnoは最小限の実装オーバーヘッドを必要とする。
論文 参考訳(メタデータ) (2026-02-03T01:10:59Z) - ROMA: Recursive Open Meta-Agent Framework for Long-Horizon Multi-Agent Systems [25.131570054560353]
現在のエージェントフレームワークは、ロングホライゾンタスクでパフォーマンスが低い。
これらの制限に対処するドメインに依存しないフレームワークであるROMAを紹介します。
ROMAとGEPA+が組み合わさって、推論と長文生成のベンチマークにおいて、システムレベルの主要な性能を提供することを示す。
論文 参考訳(メタデータ) (2026-02-02T09:20:59Z) - AgentSM: Semantic Memory for Agentic Text-to-SQL [16.68006461152765]
Agent Semantic Memory (AgentSM)は、解釈可能なセマンティックメモリを構築し、利用する。
AgentSMは、Spider 2.0ベンチマークにおいて、平均トークン使用量と軌道長をそれぞれ25%と35%削減する。
また、クモ2.0 Liteベンチマークで44.8%の最先端の精度に達することで、実行精度も向上した。
論文 参考訳(メタデータ) (2026-01-22T07:31:19Z) - ThinkGen: Generalized Thinking for Visual Generation [97.19923474851987]
ThinkGenは、さまざまな世代のシナリオでChain-of-Thought(CoT)推論を明示的に活用する、思考駆動のビジュアル生成フレームワークである。
本稿では,MLLMとDiTモジュール間の強化学習を交互に行う,分離可能なGRPOベースのトレーニングパラダイムを提案する。
実験の結果、ThinkGenは複数の世代ベンチマークで堅牢で最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-12-29T16:08:50Z) - MARS-SQL: A multi-agent reinforcement learning framework for Text-to-SQL [22.59453421744114]
基本的タスク分解と対話型強化学習(RL)を組み合わせた新しいマルチエージェントフレームワークMARS-を紹介する。
実験の結果、MARS-はBIRDセットで77.84%、スパイダーテストセットで89.84%の最先端の実行精度を達成した。
論文 参考訳(メタデータ) (2025-11-02T16:55:30Z) - Flash-Searcher: Fast and Effective Web Agents via DAG-Based Parallel Execution [48.7788770680643]
Flash-Searcherは、新しい並列エージェント推論フレームワークである。
複雑なタスクを明示的な依存関係でサブタスクに分解し、独立した推論パスの同時実行を可能にする。
BrowseCompでは67.7%の精度で、xbench-DeepSearchでは83%、エージェントの実行手順は現在のフレームワークに比べて最大35%削減されている。
論文 参考訳(メタデータ) (2025-09-29T17:39:30Z) - Agentar-Scale-SQL: Advancing Text-to-SQL through Orchestrated Test-Time Scaling [11.577572131517714]
最先端のSOTA (State-of-the-art) テキスト・トゥ・ザ・アーティカルな手法は、BIRDのような計算ベンチマークの挑戦に関して、人間の専門家よりかなり遅れている。
テスト時間のスケーリングを探求する現在のアプローチでは、組織化された戦略が欠如し、モデルの内部推論プロセスを無視しています。
論文 参考訳(メタデータ) (2025-09-29T07:50:02Z) - RCR-Router: Efficient Role-Aware Context Routing for Multi-Agent LLM Systems with Structured Memory [57.449129198822476]
RCRは、マルチエージェント大言語モデル(LLM)システムのためのロールアウェアコンテキストルーティングフレームワークである。
役割とタスクステージに基づいて、各エージェントに対して意味的に関連するメモリサブセットを動的に選択する。
軽量スコアリングポリシは、メモリ選択をガイドし、エージェント出力を共有メモリストアに統合する。
論文 参考訳(メタデータ) (2025-08-06T21:59:34Z) - RAISE: Reasoning Agent for Interactive SQL Exploration [47.77323087050061]
本稿では,スキーマリンク,クエリ生成,反復的改善を1つのエンドツーエンドコンポーネントに統一する新しいフレームワークを提案する。
本手法は、不慣れなデータベースを扱う際に、人間がどう答えるかをエミュレートする。
論文 参考訳(メタデータ) (2025-06-02T03:07:08Z) - RSL-SQL: Robust Schema Linking in Text-to-SQL Generation [51.00761167842468]
本稿では、双方向スキーマリンク、コンテキスト情報拡張、バイナリ選択戦略、マルチターン自己補正を組み合わせたRSLと呼ばれる新しいフレームワークを提案する。
ベンチマークの結果,オープンソースのソリューション間でのSOTA実行精度は67.2%,BIRDは87.9%,GPT-4オクルージョンは87.9%であった。
提案手法は,DeepSeekを同一のプロンプトで適用した場合,GPT-4ベースのテキスト・ツー・シークシステムよりも優れている。
論文 参考訳(メタデータ) (2024-10-31T16:22:26Z) - DS-Agent: Automated Data Science by Empowering Large Language Models with Case-Based Reasoning [56.887047551101574]
大規模言語モデル(LLM)エージェントとケースベース推論(CBR)を利用した新しいフレームワークであるDS-Agentを提案する。
開発段階では、DS-AgentはCBRフレームワークに従い、自動イテレーションパイプラインを構築する。
デプロイメントの段階では、DS-Agentは、シンプルなCBRパラダイムで低リソースのデプロイメントステージを実装し、LCMの基本能力に対する需要を大幅に削減する。
論文 参考訳(メタデータ) (2024-02-27T12:26:07Z) - MAC-SQL: A Multi-Agent Collaborative Framework for Text-to-SQL [47.120862170230566]
最近のText-to-Yourselfメソッドは通常、"巨大な"データベース上での大幅なパフォーマンス劣化に悩まされる。
我々は,新しいテキスト・ツー・ユー・セルフ LLM ベースのマルチエージェント協調フレームワーク MAC を紹介する。
我々のフレームワークでは、GPT-4を全てのエージェントタスクの強力なバックボーンとして利用し、フレームワークの上限を決定する。
次に、Code 7Bを活用することで、オープンソースの命令フォローモデルであるsql-Llamaを微調整し、GPT-4のように全てのタスクを達成します。
論文 参考訳(メタデータ) (2023-12-18T14:40:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。