論文の概要: AgentSM: Semantic Memory for Agentic Text-to-SQL
- arxiv url: http://arxiv.org/abs/2601.15709v1
- Date: Thu, 22 Jan 2026 07:31:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.523589
- Title: AgentSM: Semantic Memory for Agentic Text-to-SQL
- Title(参考訳): AgentSM: エージェントテキストからSQLへのセマンティックメモリ
- Authors: Asim Biswal, Chuan Lei, Xiao Qin, Aodong Li, Balakrishnan Narayanaswamy, Tim Kraska,
- Abstract要約: Agent Semantic Memory (AgentSM)は、解釈可能なセマンティックメモリを構築し、利用する。
AgentSMは、Spider 2.0ベンチマークにおいて、平均トークン使用量と軌道長をそれぞれ25%と35%削減する。
また、クモ2.0 Liteベンチマークで44.8%の最先端の精度に達することで、実行精度も向上した。
- 参考スコア(独自算出の注目度): 16.68006461152765
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in LLM-based Text-to-SQL have achieved remarkable gains on public benchmarks such as BIRD and Spider. Yet, these systems struggle to scale in realistic enterprise settings with large, complex schemas, diverse SQL dialects, and expensive multi-step reasoning. Emerging agentic approaches show potential for adaptive reasoning but often suffer from inefficiency and instability-repeating interactions with databases, producing inconsistent outputs, and occasionally failing to generate valid answers. To address these challenges, we introduce Agent Semantic Memory (AgentSM), an agentic framework for Text-to-SQL that builds and leverages interpretable semantic memory. Instead of relying on raw scratchpads or vector retrieval, AgentSM captures prior execution traces-or synthesizes curated ones-as structured programs that directly guide future reasoning. This design enables systematic reuse of reasoning paths, which allows agents to scale to larger schemas, more complex questions, and longer trajectories efficiently and reliably. Compared to state-of-the-art systems, AgentSM achieves higher efficiency by reducing average token usage and trajectory length by 25% and 35%, respectively, on the Spider 2.0 benchmark. It also improves execution accuracy, reaching a state-of-the-art accuracy of 44.8% on the Spider 2.0 Lite benchmark.
- Abstract(参考訳): LLMベースのText-to-SQLの最近の進歩は、BIRDやSpiderといった公開ベンチマークで著しく向上している。
しかし、これらのシステムは、大規模で複雑なスキーマ、多様なSQL方言、高価な多段階推論など、現実的なエンタープライズ環境でのスケールに苦慮している。
創発的なエージェント的アプローチは適応推論の可能性を示しているが、しばしばデータベースとの非効率性と不安定な反復的な相互作用に悩まされ、一貫性のない出力を生成し、時には有効な答えを生成できない。
これらの課題に対処するために、テキストからSQLへのエージェントフレームワークであるエージェントセマンティックメモリ(AgentSM)を導入し、解釈可能なセマンティックメモリを構築し、活用する。
生のスクラッチパッドやベクトル検索に頼る代わりに、AgentSMは以前の実行トレースをキャプチャする。
この設計により、推論パスの体系的な再利用が可能になり、エージェントはより大きなスキーマ、より複雑な質問、より効率的かつ確実なトラジェクトリにスケールすることができる。
最先端システムと比較して、AgentSMは、Spider 2.0ベンチマークにおいて平均トークン使用量と軌道長をそれぞれ25%と35%削減することで、より高い効率を達成する。
また、クモ2.0 Liteベンチマークで44.8%の最先端の精度に達することで、実行精度も向上した。
関連論文リスト
- APEX-SQL: Talking to the data via Agentic Exploration for Text-to-SQL [39.76924093980244]
APEX-動詞化は、パラダイムを受動的翻訳からエージェント探索に移行するフレームワークである。
提案フレームワークでは,実データにおける基底モデル推論に仮説検証ループを用いる。
論文 参考訳(メタデータ) (2026-02-11T07:50:47Z) - DLLM Agent: See Farther, Run Faster [94.74432470237817]
拡散大言語モデル(DLLM)は、自己回帰(AR)デコーディングの代替として、魅力的な効率とモデリング特性を持つ。
我々は、DLLMとARのバックボーンを同一のエージェントワークフロー内でインスタンス化することで、制御された環境でこれを研究する。
DLLMエージェントはARエージェントよりも平均30%以上速く、場合によっては8倍のスピードアップを達成している。
論文 参考訳(メタデータ) (2026-02-07T09:01:18Z) - AgentArk: Distilling Multi-Agent Intelligence into a Single LLM Agent [57.10083973844841]
AgentArkは、マルチエージェントダイナミクスを単一のモデルの重みに蒸留する新しいフレームワークである。
各種モデル,タスク,スケーリング,シナリオの3つの階層的蒸留戦略について検討する。
シミュレーションからトレーニングへ計算の負担をシフトさせることで、蒸留されたモデルは、複数のエージェントの強い推論と自己補正性能を示しながら、一つのエージェントの効率を保ちます。
論文 参考訳(メタデータ) (2026-02-03T19:18:28Z) - AgentLongBench: A Controllable Long Benchmark For Long-Contexts Agents via Environment Rollouts [78.33143446024485]
我々は、横方向思考パズルに基づく環境ロールアウトによるエージェントの評価を行うtextbfAgentLongBenchを紹介した。
このフレームワークは、知識集約的で知識のないシナリオにまたがる厳密な相互作用の軌跡を生成する。
論文 参考訳(メタデータ) (2026-01-28T16:05:44Z) - LLM-Based SQL Generation: Prompting, Self-Refinement, and Adaptive Weighted Majority Voting [7.590911146338215]
アンサンブル投票(SSEV)を用いたシングルエージェント自己精製法を提案する。
私たちは、エンタープライズデータベースと現実のText-to-Actタスクの複雑さの増加に対処するために、SSEVパイプラインからの洞察に基づいています。
ReCAPAgent-5.5%は、計画、外部知識検索、批評、行動生成、自己修正、スキーマリンク、結果検証のための特殊エージェントを統合している。
論文 参考訳(メタデータ) (2026-01-25T18:38:58Z) - SQL-Trail: Multi-Turn Reinforcement Learning with Interleaved Feedback for Text-to-SQL [20.49395306069103]
テキスト・ツー・ワン・ジェネレーションのためのマルチターン強化学習(RL)エージェント・フレームワークを提案する。
1ショットでクエリを生成するのではなく、SQL-Trailはデータベース環境と対話し、実行フィードバックを使用して予測を反復的に洗練する。
提案手法は, エージェントの相互作用深度を問合せ難易度に合わせるための適応的なターン予算配分機構と, sqlの正しさと効率的な探索を両立させる複合報酬パネルの2つを主眼とする。
論文 参考訳(メタデータ) (2026-01-25T05:16:52Z) - Towards Efficient Agents: A Co-Design of Inference Architecture and System [66.59916327634639]
本稿では,エージェントアクセラレーションのための統合フレームワークであるAgentInferを提案する。
問題をAgentCollab、AgentSched、AgentSAM、AgentCompressの4つの相乗的コンポーネントに分解する。
BrowseComp-zhとDeepDiverベンチマークの実験では、これらの手法の相乗的コラボレーションを通じて、AgentInferは非効率なトークン消費を50%以上削減することを示した。
論文 参考訳(メタデータ) (2025-12-20T12:06:13Z) - SCOPE: Prompt Evolution for Enhancing Agent Effectiveness [53.75986399936395]
大規模言語モデル(LLM)エージェントは、大規模で動的なコンテキストを生成する環境にますますデプロイされている。
エージェントはこのコンテキストにアクセスできますが、静的なプロンプトには効果的に管理するメカニズムがありません。
textbfSCOPE (Self-evolving Context Optimization via Prompt Evolution) を導入する。
本稿では,戦術的特異性(即時誤りの解消)と戦略的汎用性(長期原則の進化)のバランスをとるデュアルストリーム機構を提案する。
論文 参考訳(メタデータ) (2025-12-17T12:25:05Z) - Companion Agents: A Table-Information Mining Paradigm for Text-to-SQL [8.159121916366727]
BIRDのような大規模テキスト・ツー・キュレートのベンチマークは通常、利用可能な外部知識だけでなく、完全で正確なデータベースアノテーションを前提としている。
このミスマッチはドメイン・オブ・ザ・ドメイン・テキスト・トゥ・アーティファクトシステムの現実的な適用性を著しく制限する。
本稿では,関係データベースに内在する固有できめ細かな情報を活用するデータベース中心の手法を提案する。
論文 参考訳(メタデータ) (2025-12-17T07:11:55Z) - Text-to-SQL as Dual-State Reasoning: Integrating Adaptive Context and Progressive Generation [54.53145282349042]
DSR-sourced, textbfDual-textbfS textbfReasoning frameworkを導入する。
ポストトレーニングやインコンテキストの例がなければ、DSR-sourcedは競合性能を達成し、スパイダー2.0-Snowで35.28%、BIRD開発で68.32%に達する。
論文 参考訳(メタデータ) (2025-11-26T13:52:50Z) - TeaRAG: A Token-Efficient Agentic Retrieval-Augmented Generation Framework [62.66056331998838]
TeaRAGは、検索内容と推論ステップの両方を圧縮できるトークン効率のエージェントRAGフレームワークである。
報奨関数は,過剰な推論ステップをペナルティ化しながら,知識マッチング機構によって知識満足度を評価する。
論文 参考訳(メタデータ) (2025-11-07T16:08:34Z) - AGENTIQL: An Agent-Inspired Multi-Expert Framework for Text-to-SQL Generation [0.509780930114934]
AgentIQLはエージェントにインスパイアされたフレームワークで、質問分解のための推論エージェント、サブクエリ生成のためのコーディングエージェント、列選択のための洗練ステップを組み合わせたものだ。
我々は、Planner&Executorのマージ戦略を用いて、14Bモデルで最大86.07%のEXを達成し、Spiderベンチマークで AgentIQLを評価した。
正確性を超えて、AgentIQLは、中間的推論ステップを公開することによって透明性を高め、セマンティック解析に対する堅牢でスケーラブルで解釈可能なアプローチを提供する。
論文 参考訳(メタデータ) (2025-10-12T15:35:05Z) - Agentar-Scale-SQL: Advancing Text-to-SQL through Orchestrated Test-Time Scaling [11.577572131517714]
最先端のSOTA (State-of-the-art) テキスト・トゥ・ザ・アーティカルな手法は、BIRDのような計算ベンチマークの挑戦に関して、人間の専門家よりかなり遅れている。
テスト時間のスケーリングを探求する現在のアプローチでは、組織化された戦略が欠如し、モデルの内部推論プロセスを無視しています。
論文 参考訳(メタデータ) (2025-09-29T07:50:02Z) - RAISE: Reasoning Agent for Interactive SQL Exploration [47.77323087050061]
本稿では,スキーマリンク,クエリ生成,反復的改善を1つのエンドツーエンドコンポーネントに統一する新しいフレームワークを提案する。
本手法は、不慣れなデータベースを扱う際に、人間がどう答えるかをエミュレートする。
論文 参考訳(メタデータ) (2025-06-02T03:07:08Z) - Runaway is Ashamed, But Helpful: On the Early-Exit Behavior of Large Language Model-based Agents in Embodied Environments [54.67512489842682]
大規模言語モデル(LLM)は、複雑な実施環境において、強力な計画と意思決定能力を示す。
LLMをベースとしたエージェントの早期退避行動を探究する第一歩を踏み出す。
論文 参考訳(メタデータ) (2025-05-23T08:23:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。