論文の概要: SQL-o1: A Self-Reward Heuristic Dynamic Search Method for Text-to-SQL
- arxiv url: http://arxiv.org/abs/2502.11741v2
- Date: Wed, 21 May 2025 15:21:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:57.609046
- Title: SQL-o1: A Self-Reward Heuristic Dynamic Search Method for Text-to-SQL
- Title(参考訳): SQL-o1: テキストからSQLへの自己逆ヒューリスティックな動的検索方法
- Authors: Shuai Lyu, Haoran Luo, Ripeng Li, Zhonghong Ou, Jiangfeng Sun, Yang Qin, Xiaoran Shang, Meina Song, Yifan Zhu,
- Abstract要約: SQL-o1は、モデル推論機能を強化するためにエージェントベースのアーキテクチャ上に構築された、自己回帰駆動の検索フレームワークである。
複雑なBirdデータセット上で+10.8の精度向上を実現し、GPT-4ベースのモデルさえ超えている。
オープンソースのLLMにまたがって、強力な数ショットの一般化と堅牢なクロスモデル転送能力を示す。
- 参考スコア(独自算出の注目度): 10.82260429602196
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text-to-SQL (Text2SQL) aims to map natural language questions to executable SQL queries. Although large language models (LLMs) have driven significant progress, current approaches struggle with poor transferability to open-source LLMs, limited robustness against logic and function errors in complex queries, and inefficiencies in structured search. We introduce SQL-o1, a self-reward-driven heuristic search framework built on an agent-based architecture to enhance model reasoning capabilities. SQL-o1 leverages Monte Carlo Tree Search (MCTS) for structured, multi-step exploration, and incorporates a dynamic pruning strategy to accelerate inference without sacrificing accuracy. On the Spider and Bird benchmarks, SQL-o1 achieves a +10.8 execution accuracy improvement on the complex Bird dataset, surpassing even GPT-4-based models. Notably, it exhibits strong few-shot generalization and robust cross-model transferability across open-source LLMs. Our code is available at:https://github.com/ShuaiLyu0110/SQL-o1.
- Abstract(参考訳): Text-to-SQL(Text2SQL)は、自然言語の質問を実行可能なSQLクエリにマッピングすることを目的としている。
大規模言語モデル(LLM)は大きな進歩を遂げているが、現在のアプローチでは、オープンソースのLLMへのトランスファービリティの低下、複雑なクエリにおける論理や関数エラーに対する頑健さの制限、構造化検索における非効率さに苦慮している。
モデル推論機能を向上させるためにエージェントベースのアーキテクチャ上に構築された,自己回帰駆動型ヒューリスティック検索フレームワークであるSQL-o1を紹介する。
SQL-o1は構造化されたマルチステップ探索にMCTS(Monte Carlo Tree Search)を活用し、動的プルーニング戦略を採用して、精度を犠牲にすることなく推論を高速化する。
SpiderとBirdのベンチマークでは、SQL-o1は複雑なBirdデータセット上で+10.8の実行精度を向上し、GPT-4ベースのモデルでさえ上回っている。
特に、オープンソースのLLM間で、強力な数ショットの一般化と堅牢なクロスモデル転送能力を示す。
私たちのコードは、https://github.com/ShuaiLyu0110/SQL-o1で利用可能です。
関連論文リスト
- MCTS-SQL: An Effective Framework for Text-to-SQL with Monte Carlo Tree Search [3.521199751827158]
本稿では,自然言語クエリをデータベースクエリに変換する新しい手法を提案する。
我々はモンテカルロ木探索(MCTS)と自己精製機構を用いて精度と信頼性を向上させる。
実験の結果,MCTS-IDERは最先端の性能を達成できた。
論文 参考訳(メタデータ) (2025-01-28T00:52:23Z) - SQLPrompt: In-Context Text-to-SQL with Minimal Labeled Data [54.69489315952524]
Prompt"は、Text-to-LLMのいくつかのショットプロンプト機能を改善するように設計されている。
Prompt"は、ラベル付きデータが少なく、テキスト内学習における従来のアプローチよりも大きなマージンで優れている。
emphPromptはテキスト内学習における従来の手法よりも優れており,ラベル付きデータはほとんどない。
論文 参考訳(メタデータ) (2023-11-06T05:24:06Z) - Benchmarking and Improving Text-to-SQL Generation under Ambiguity [25.283118418288293]
我々はAmbiQTと呼ばれる新しいベンチマークを開発し、各テキストは語彙的および/または構造的あいまいさのために2つのもっともらしいSQLとして解釈できる。
提案するLogicalBeamは,計画ベースのテンプレート生成と制約付きインフィルを併用して,sql論理空間をナビゲートする新しい復号アルゴリズムである。
論文 参考訳(メタデータ) (2023-10-20T17:00:53Z) - Retrieval-augmented GPT-3.5-based Text-to-SQL Framework with
Sample-aware Prompting and Dynamic Revision Chain [21.593701177605652]
サンプルと動的リビジョンチェーンを含むテキスト・ツー・アウェア・プロンプト・フレームワークを提案する。
提案手法は,質問項目のサンプルと詳細な情報を含む。
人間の介入なしに実行可能で正確なスクルを生成するために、我々は、きめ細かいフィードバックを反復的に適応する動的リビジョンチェーンを設計する。
論文 参考訳(メタデータ) (2023-07-11T07:16:22Z) - SQL-PaLM: Improved Large Language Model Adaptation for Text-to-SQL (extended) [53.95151604061761]
本稿では,大規模言語モデル(LLM)を用いたテキスト・ツー・フィルタリングのフレームワークを提案する。
数発のプロンプトで、実行ベースのエラー解析による一貫性復号化の有効性について検討する。
命令の微調整により、チューニングされたLLMの性能に影響を及ぼす重要なパラダイムの理解を深める。
論文 参考訳(メタデータ) (2023-05-26T21:39:05Z) - UNITE: A Unified Benchmark for Text-to-SQL Evaluation [72.72040379293718]
テキスト・ツー・ドメイン・システムのためのUNIfiedベンチマークを導入する。
公開されているテキストからドメインへのデータセットと29Kデータベースで構成されている。
広く使われているSpiderベンチマークと比較すると、SQLパターンの3倍の増加が紹介されている。
論文 参考訳(メタデータ) (2023-05-25T17:19:52Z) - Can LLM Already Serve as A Database Interface? A BIg Bench for
Large-Scale Database Grounded Text-to-SQLs [89.68522473384522]
テキストから効率のよいタスクをベースとした大規模データベースのための大規模なベンチマークであるBirdを紹介します。
データベースの値に重点を置いていると、汚いデータベースコンテンツに対する新たな課題が浮き彫りになる。
最も効果的なテキストから効率のよいモデルであるChatGPTでさえ、実行精度はわずか40.08%である。
論文 参考訳(メタデータ) (2023-05-04T19:02:29Z) - A Survey on Text-to-SQL Parsing: Concepts, Methods, and Future
Directions [102.8606542189429]
テキストからコーパスへのパースの目的は、自然言語(NL)質問をデータベースが提供するエビデンスに基づいて、対応する構造化クエリ言語()に変換することである。
ディープニューラルネットワークは、入力NL質問から出力クエリへのマッピング関数を自動的に学習するニューラルジェネレーションモデルによって、このタスクを大幅に進歩させた。
論文 参考訳(メタデータ) (2022-08-29T14:24:13Z) - Weakly Supervised Text-to-SQL Parsing through Question Decomposition [53.22128541030441]
我々は最近提案されたQDMR(QDMR)という意味表現を活用している。
質問やQDMR構造(非専門家によって注釈付けされたり、自動予測されたりする)、回答が与えられたら、我々は自動的にsqlクエリを合成できる。
本結果は,NL-ベンチマークデータを用いて訓練したモデルと,弱い教師付きモデルが競合することを示す。
論文 参考訳(メタデータ) (2021-12-12T20:02:42Z) - Natural SQL: Making SQL Easier to Infer from Natural Language
Specifications [15.047104267689052]
我々はNatural SQL(Nat)と呼ばれるSQL中間表現を提案する。
挑戦的なテキスト・ツー・スキーマのベンチマークであるSpiderでは、Natが他のIRより優れており、以前のSOTAモデルの性能が大幅に向上することを示した。
実行可能生成をサポートしない既存のモデルでは、Natは実行可能クエリを容易に生成することができ、新しい最先端実行精度を実現する。
論文 参考訳(メタデータ) (2021-09-11T01:53:55Z) - Bertrand-DR: Improving Text-to-SQL using a Discriminative Re-ranker [1.049360126069332]
生成テキスト-リミモデルの性能向上を図るために,新しい離散型リランカを提案する。
テキスト・ト・リミモデルとリランカモデルの相対強度を最適性能として解析する。
本稿では,2つの最先端テキスト-リミモデルに適用することで,リランカの有効性を実証する。
論文 参考訳(メタデータ) (2020-02-03T04:52:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。