論文の概要: Memo-SQL: Structured Decomposition and Experience-Driven Self-Correction for Training-Free NL2SQL
- arxiv url: http://arxiv.org/abs/2601.10011v1
- Date: Thu, 15 Jan 2026 02:42:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:18.961012
- Title: Memo-SQL: Structured Decomposition and Experience-Driven Self-Correction for Training-Free NL2SQL
- Title(参考訳): Memo-SQL: 構造化された分解と、トレーニング不要なNL2SQLのためのエクスペリエンス駆動の自己補正
- Authors: Zerui Yang, Weichuan Wang, Yanwei Xu, Linqi Song, Yudai Matsuda, Wei Han, Bo Bai,
- Abstract要約: 既存のNL2システムは、正しい例しか持たないコンテキスト内学習に依存している。
我々は,オープンなゼロファインチューニング手法の中で,新しい技術状態を設定するメモ補正を提案する。
- 参考スコア(独自算出の注目度): 23.966546153810764
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing NL2SQL systems face two critical limitations: (1) they rely on in-context learning with only correct examples, overlooking the rich signal in historical error-fix pairs that could guide more robust self-correction; and (2) test-time scaling approaches often decompose questions arbitrarily, producing near-identical SQL candidates across runs and diminishing ensemble gains. Moreover, these methods suffer from a stark accuracy-efficiency trade-off: high performance demands excessive computation, while fast variants compromise quality. We present Memo-SQL, a training-free framework that addresses these issues through two simple ideas: structured decomposition and experience-aware self-correction. Instead of leaving decomposition to chance, we apply three clear strategies, entity-wise, hierarchical, and atomic sequential, to encourage diverse reasoning. For correction, we build a dynamic memory of both successful queries and historical error-fix pairs, and use retrieval-augmented prompting to bring relevant examples into context at inference time, no fine-tuning or external APIs required. On BIRD, Memo-SQL achieves 68.5% execution accuracy, setting a new state of the art among open, zero-fine-tuning methods, while using over 10 times fewer resources than prior TTS approaches.
- Abstract(参考訳): 既存のNL2SQLシステムは、(1)より堅牢な自己補正を導くことのできる、歴史的なエラー修正ペアの豊富な信号を見渡すこと、(2)テストタイムスケーリングアプローチは、任意に質問を分解し、実行中にほぼ同一のSQL候補を生成し、アンサンブルゲインを減らすこと、という2つの重要な制限に直面している。
さらに、これらの手法は精度と効率のトレードオフに悩まされ、ハイパフォーマンスは過剰な計算を必要とし、高速な変種は品質を損なう。
Memo-SQLは、構造化分解と経験を意識した自己補正という2つの単純なアイデアを通じて、これらの問題に対処する、トレーニング不要のフレームワークである。
分解を偶然に残す代わりに、多様な推論を促進するために、エンティティワイド、階層、原子シーケンシャルという3つの明確な戦略を適用します。
訂正のために、成功したクエリと過去のエラー修正ペアの両方の動的メモリを構築し、検索拡張プロンプトを使用して、関連するサンプルを推論時にコンテキストに取り込み、微調整や外部APIを必要としない。
BIRDでは、Memo-SQLは68.5%の実行精度を達成し、オープンなゼロファインチューニングメソッドに新しい最先端設定をし、従来のTSアプローチの10倍以上のリソースを使用する。
関連論文リスト
- Text-to-SQL as Dual-State Reasoning: Integrating Adaptive Context and Progressive Generation [54.53145282349042]
DSR-sourced, textbfDual-textbfS textbfReasoning frameworkを導入する。
ポストトレーニングやインコンテキストの例がなければ、DSR-sourcedは競合性能を達成し、スパイダー2.0-Snowで35.28%、BIRD開発で68.32%に達する。
論文 参考訳(メタデータ) (2025-11-26T13:52:50Z) - HES-SQL: Hybrid Reasoning for Efficient Text-to-SQL with Structural Skeleton Guidance [6.653834890554154]
HES-は、思考モード融合型教師あり微調整の統合により、テキストからレイテンシ生成を進化させる新しいハイブリッドトレーニングフレームワークである。
このフレームワークは、クエリの精度と実行効率を改善しながら、推論モードと非推論モードの切り替えを可能にする。
論文 参考訳(メタデータ) (2025-10-10T01:15:57Z) - SHARE: An SLM-based Hierarchical Action CorREction Assistant for Text-to-SQL [18.493226915913638]
テキスト・トゥ・コレクションのためのSLMに基づく階層的行動補正アシスタントSHAREを提案する。
SHAREはシーケンシャルパイプラインで3つの特殊小言語モデル(SLM)を編成する。
実験により,SHAREは様々なLSMに対して堅牢性を示しながら,自己補正能力を効果的に向上することが示された。
論文 参考訳(メタデータ) (2025-05-31T04:51:12Z) - SQLCritic: Correcting Text-to-SQL Generation via Clause-wise Critic [8.680252929322684]
そこで我々は,sqlCriticBenchというベンチマークとともに,節単位の批判生成タスクを導入し,詳細なエラーローカライゼーションを行う。
また,自動トレーニングデータセットキュレーションパイプラインを提案する。
論文 参考訳(メタデータ) (2025-03-11T02:52:39Z) - RSL-SQL: Robust Schema Linking in Text-to-SQL Generation [51.00761167842468]
本稿では、双方向スキーマリンク、コンテキスト情報拡張、バイナリ選択戦略、マルチターン自己補正を組み合わせたRSLと呼ばれる新しいフレームワークを提案する。
ベンチマークの結果,オープンソースのソリューション間でのSOTA実行精度は67.2%,BIRDは87.9%,GPT-4オクルージョンは87.9%であった。
提案手法は,DeepSeekを同一のプロンプトで適用した場合,GPT-4ベースのテキスト・ツー・シークシステムよりも優れている。
論文 参考訳(メタデータ) (2024-10-31T16:22:26Z) - Learning from Imperfect Data: Towards Efficient Knowledge Distillation of Autoregressive Language Models for Text-to-SQL [83.99974309930072]
知識蒸留(KD)は、より大規模な教師モデルをより小さな学生モデルに蒸留することを目的とした一般的な手法である。
我々は,不完全なデータ,すなわちKIDを用いてKDを改善することを提案する。
KIDは、すべてのモデルタイプとサイズで一貫した、重要なパフォーマンス向上を達成するだけでなく、トレーニング効率を効果的に向上する。
論文 参考訳(メタデータ) (2024-10-15T07:51:00Z) - DAC: Decomposed Automation Correction for Text-to-SQL [51.48239006107272]
De Automation Correction (DAC)を導入し、エンティティリンクとスケルトン解析を分解することでテキストから合成を補正する。
また,本手法では,ベースライン法と比較して,スパイダー,バード,カグルDBQAの平均値が平均3.7%向上することを示した。
論文 参考訳(メタデータ) (2024-08-16T14:43:15Z) - Wav2SQL: Direct Generalizable Speech-To-SQL Parsing [55.10009651476589]
Speech-to-Spider (S2Spider) は、与えられたデータベースに対する音声質問をsqlクエリに変換することを目的としている。
ケースドシステム間の誤り合成を回避した,最初の直接音声-話者パーシングモデルWav2を提案する。
実験結果から,Wav2は誤差混成を回避し,ベースラインの精度を最大2.5%向上させることで最先端の結果が得られることがわかった。
論文 参考訳(メタデータ) (2023-05-21T19:26:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。