論文の概要: AgentSM: Semantic Memory for Agentic Text-to-SQL
- arxiv url: http://arxiv.org/abs/2601.15709v1
- Date: Thu, 22 Jan 2026 07:31:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.523589
- Title: AgentSM: Semantic Memory for Agentic Text-to-SQL
- Title(参考訳): AgentSM: エージェントテキストからSQLへのセマンティックメモリ
- Authors: Asim Biswal, Chuan Lei, Xiao Qin, Aodong Li, Balakrishnan Narayanaswamy, Tim Kraska,
- Abstract要約: Agent Semantic Memory (AgentSM)は、解釈可能なセマンティックメモリを構築し、利用する。
AgentSMは、Spider 2.0ベンチマークにおいて、平均トークン使用量と軌道長をそれぞれ25%と35%削減する。
また、クモ2.0 Liteベンチマークで44.8%の最先端の精度に達することで、実行精度も向上した。
- 参考スコア(独自算出の注目度): 16.68006461152765
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in LLM-based Text-to-SQL have achieved remarkable gains on public benchmarks such as BIRD and Spider. Yet, these systems struggle to scale in realistic enterprise settings with large, complex schemas, diverse SQL dialects, and expensive multi-step reasoning. Emerging agentic approaches show potential for adaptive reasoning but often suffer from inefficiency and instability-repeating interactions with databases, producing inconsistent outputs, and occasionally failing to generate valid answers. To address these challenges, we introduce Agent Semantic Memory (AgentSM), an agentic framework for Text-to-SQL that builds and leverages interpretable semantic memory. Instead of relying on raw scratchpads or vector retrieval, AgentSM captures prior execution traces-or synthesizes curated ones-as structured programs that directly guide future reasoning. This design enables systematic reuse of reasoning paths, which allows agents to scale to larger schemas, more complex questions, and longer trajectories efficiently and reliably. Compared to state-of-the-art systems, AgentSM achieves higher efficiency by reducing average token usage and trajectory length by 25% and 35%, respectively, on the Spider 2.0 benchmark. It also improves execution accuracy, reaching a state-of-the-art accuracy of 44.8% on the Spider 2.0 Lite benchmark.
- Abstract(参考訳): LLMベースのText-to-SQLの最近の進歩は、BIRDやSpiderといった公開ベンチマークで著しく向上している。
しかし、これらのシステムは、大規模で複雑なスキーマ、多様なSQL方言、高価な多段階推論など、現実的なエンタープライズ環境でのスケールに苦慮している。
創発的なエージェント的アプローチは適応推論の可能性を示しているが、しばしばデータベースとの非効率性と不安定な反復的な相互作用に悩まされ、一貫性のない出力を生成し、時には有効な答えを生成できない。
これらの課題に対処するために、テキストからSQLへのエージェントフレームワークであるエージェントセマンティックメモリ(AgentSM)を導入し、解釈可能なセマンティックメモリを構築し、活用する。
生のスクラッチパッドやベクトル検索に頼る代わりに、AgentSMは以前の実行トレースをキャプチャする。
この設計により、推論パスの体系的な再利用が可能になり、エージェントはより大きなスキーマ、より複雑な質問、より効率的かつ確実なトラジェクトリにスケールすることができる。
最先端システムと比較して、AgentSMは、Spider 2.0ベンチマークにおいて平均トークン使用量と軌道長をそれぞれ25%と35%削減することで、より高い効率を達成する。
また、クモ2.0 Liteベンチマークで44.8%の最先端の精度に達することで、実行精度も向上した。
関連論文リスト
- Towards Efficient Agents: A Co-Design of Inference Architecture and System [66.59916327634639]
本稿では,エージェントアクセラレーションのための統合フレームワークであるAgentInferを提案する。
問題をAgentCollab、AgentSched、AgentSAM、AgentCompressの4つの相乗的コンポーネントに分解する。
BrowseComp-zhとDeepDiverベンチマークの実験では、これらの手法の相乗的コラボレーションを通じて、AgentInferは非効率なトークン消費を50%以上削減することを示した。
論文 参考訳(メタデータ) (2025-12-20T12:06:13Z) - SCOPE: Prompt Evolution for Enhancing Agent Effectiveness [53.75986399936395]
大規模言語モデル(LLM)エージェントは、大規模で動的なコンテキストを生成する環境にますますデプロイされている。
エージェントはこのコンテキストにアクセスできますが、静的なプロンプトには効果的に管理するメカニズムがありません。
textbfSCOPE (Self-evolving Context Optimization via Prompt Evolution) を導入する。
本稿では,戦術的特異性(即時誤りの解消)と戦略的汎用性(長期原則の進化)のバランスをとるデュアルストリーム機構を提案する。
論文 参考訳(メタデータ) (2025-12-17T12:25:05Z) - Text-to-SQL as Dual-State Reasoning: Integrating Adaptive Context and Progressive Generation [54.53145282349042]
DSR-sourced, textbfDual-textbfS textbfReasoning frameworkを導入する。
ポストトレーニングやインコンテキストの例がなければ、DSR-sourcedは競合性能を達成し、スパイダー2.0-Snowで35.28%、BIRD開発で68.32%に達する。
論文 参考訳(メタデータ) (2025-11-26T13:52:50Z) - TeaRAG: A Token-Efficient Agentic Retrieval-Augmented Generation Framework [62.66056331998838]
TeaRAGは、検索内容と推論ステップの両方を圧縮できるトークン効率のエージェントRAGフレームワークである。
報奨関数は,過剰な推論ステップをペナルティ化しながら,知識マッチング機構によって知識満足度を評価する。
論文 参考訳(メタデータ) (2025-11-07T16:08:34Z) - AGENTIQL: An Agent-Inspired Multi-Expert Framework for Text-to-SQL Generation [0.509780930114934]
AgentIQLはエージェントにインスパイアされたフレームワークで、質問分解のための推論エージェント、サブクエリ生成のためのコーディングエージェント、列選択のための洗練ステップを組み合わせたものだ。
我々は、Planner&Executorのマージ戦略を用いて、14Bモデルで最大86.07%のEXを達成し、Spiderベンチマークで AgentIQLを評価した。
正確性を超えて、AgentIQLは、中間的推論ステップを公開することによって透明性を高め、セマンティック解析に対する堅牢でスケーラブルで解釈可能なアプローチを提供する。
論文 参考訳(メタデータ) (2025-10-12T15:35:05Z) - Agentar-Scale-SQL: Advancing Text-to-SQL through Orchestrated Test-Time Scaling [11.577572131517714]
最先端のSOTA (State-of-the-art) テキスト・トゥ・ザ・アーティカルな手法は、BIRDのような計算ベンチマークの挑戦に関して、人間の専門家よりかなり遅れている。
テスト時間のスケーリングを探求する現在のアプローチでは、組織化された戦略が欠如し、モデルの内部推論プロセスを無視しています。
論文 参考訳(メタデータ) (2025-09-29T07:50:02Z) - RAISE: Reasoning Agent for Interactive SQL Exploration [47.77323087050061]
本稿では,スキーマリンク,クエリ生成,反復的改善を1つのエンドツーエンドコンポーネントに統一する新しいフレームワークを提案する。
本手法は、不慣れなデータベースを扱う際に、人間がどう答えるかをエミュレートする。
論文 参考訳(メタデータ) (2025-06-02T03:07:08Z) - Runaway is Ashamed, But Helpful: On the Early-Exit Behavior of Large Language Model-based Agents in Embodied Environments [54.67512489842682]
大規模言語モデル(LLM)は、複雑な実施環境において、強力な計画と意思決定能力を示す。
LLMをベースとしたエージェントの早期退避行動を探究する第一歩を踏み出す。
論文 参考訳(メタデータ) (2025-05-23T08:23:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。