論文の概要: Thinkquel: A Model Dedicated to Text-to-dbt Using Synthetic Data and a Span-Aware Objective
- arxiv url: http://arxiv.org/abs/2510.00186v2
- Date: Thu, 02 Oct 2025 18:28:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 12:05:48.063572
- Title: Thinkquel: A Model Dedicated to Text-to-dbt Using Synthetic Data and a Span-Aware Objective
- Title(参考訳): Thinkquel: テキストからdbtへの合成データとスパン認識オブジェクトを用いたモデル
- Authors: Anni Li, Aria Attar, Paul Dong,
- Abstract要約: Thinkquelは、堅牢でポータブルで実行検証可能なクエリを生成するための、微調整されたモデルである。
TS-GRPOはトークンレベルのトレーニング信号とシーケンスレベルの実行報酬のギャップを埋める。
- 参考スコア(独自算出の注目度): 2.5297878656953605
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transforming natural-language requests into reliable, production-ready data transformations remains challenging: correctness depends on precise schema linking and warehouse-specific SQL dialects, while the strongest supervision available during training--execution success and result matching--are provided only at the sequence level. At the same time, assembling large, execution-validated corpora is costly, and token-level objectives misalign with these global signals, yielding unstable optimization and limited portability. We introduce Thinkquel, a fine-tuned model for producing robust, portable, and execution-validated database queries. Methodologies in Thinkquel integrates a novel synthetic data pipeline, TS-SQL, that leverages dbt as a portable intermediate representation with a span-aware reinforcement learning objective, and Token-Sequence GRPO (TS-GRPO), specifically designed to bridge the gap between token-level training signals and sequence-level execution rewards when finetuning LLMs. On the 500-example TS-SQL test set, Thinkquel (32B) reaches 93.2% execution success and 61.8% exact-result match with a two-stage SFT curriculum, improving over the base model by 67.2% (exec.) and 44.4% (match). In Spider (14B) experiments, TS-GRPO increases training stability and speeds convergence of the execution-match reward relative to GRPO and GSPO.
- Abstract(参考訳): 正確さは、正確なスキーマリンクとウェアハウス固有のSQL方言に依存します。
同時に、大規模で実行検証可能なコーパスの組み立てはコストがかかり、トークンレベルの目的はこれらのグローバル信号と不一致であり、不安定な最適化と限られたポータビリティをもたらす。
我々は、堅牢でポータブルで実行検証可能なデータベースクエリを生成するための微調整モデルであるThinkquelを紹介した。
Thinkquel の方法論は,Dbt を可搬型中間表現として用いた新しい合成データパイプライン TS-SQL と,トークンレベルのトレーニング信号と LLM の微調整時のシーケンスレベルの実行報酬とのギャップを埋めるために特別に設計された Token-Sequence GRPO (TS-GRPO) を統合している。
500サンプルのTS-SQLテストセットでは、Thinkquel (32B) は93.2%の実行成功と61.8%の正確な結果が2段階のSFTカリキュラムと一致し、ベースモデルが67.2%(エグゼクティブ)、44.4%(マッチ)向上した。
スパイダー (14B) 実験では、TS-GRPO は GRPO と GSPO と比較して訓練安定性を高め、実行-マッチ報酬の収束を高速化する。
関連論文リスト
- Lightweight Transformers for Zero-Shot and Fine-Tuned Text-to-SQL Generation Using Spider [2.1178416840822027]
本研究では、スパイダーデータセット上の3つの軽量トランスモデル(T5-Small、BART-Small、GPT-2)を評価する。
再利用可能なモデルに依存しないパイプラインを開発し、各モデルのアーキテクチャに合わせてスキーマのフォーマットを調整しました。
論文 参考訳(メタデータ) (2025-08-06T16:49:13Z) - RAISE: Reasoning Agent for Interactive SQL Exploration [47.77323087050061]
本稿では,スキーマリンク,クエリ生成,反復的改善を1つのエンドツーエンドコンポーネントに統一する新しいフレームワークを提案する。
本手法は、不慣れなデータベースを扱う際に、人間がどう答えるかをエミュレートする。
論文 参考訳(メタデータ) (2025-06-02T03:07:08Z) - Sparks of Tabular Reasoning via Text2SQL Reinforcement Learning [0.12289361708127876]
この研究は、Text-to-the-taskを、大規模言語モデル(LLM)にデータの推論と操作を教えるための経路として再構成した。
本稿では,テーブルフィールドをトラバースし,フィルタし,集約する方法をモデルに教える2段階フレームワークを提案する。
提案手法は,BIRD や CRT-QA などの推論集約型データセットに対して,理論的に有意な向上を実現している。
論文 参考訳(メタデータ) (2025-04-23T19:02:04Z) - OpenSearch-SQL: Enhancing Text-to-SQL with Dynamic Few-shot and Consistency Alignment [6.2089733671434875]
我々は,テキストからエージェントまでのタスクを,整合性アライメント機構に基づくアライメントモジュールとともに,前処理,抽出,生成,リファインメントの4つの主要なモジュールに分割するOpenSearch-を提案する。
これらの手法はテキスト・ツー・エージェント・タスクにおけるLLMの性能を大幅に向上させた。
実験の結果、OpenSearch-はBIRD開発セットで69.3%、テストセットで72.28%、報酬ベースの効率スコア(R-VES)で69.3で実行精度(EX)を達成した。
論文 参考訳(メタデータ) (2025-02-19T07:51:50Z) - Reliable Text-to-SQL with Adaptive Abstention [21.07332675929629]
本稿では,提案手法を組み込むことにより,クエリ生成の信頼性を向上させる新しいフレームワークを提案する。
我々はBIRDベンチマークの総合的な実験を通じてアプローチを検証するとともに、堅牢性と信頼性の大幅な向上を実証した。
論文 参考訳(メタデータ) (2025-01-18T19:36:37Z) - DS-Agent: Automated Data Science by Empowering Large Language Models with Case-Based Reasoning [56.887047551101574]
大規模言語モデル(LLM)エージェントとケースベース推論(CBR)を利用した新しいフレームワークであるDS-Agentを提案する。
開発段階では、DS-AgentはCBRフレームワークに従い、自動イテレーションパイプラインを構築する。
デプロイメントの段階では、DS-Agentは、シンプルなCBRパラダイムで低リソースのデプロイメントステージを実装し、LCMの基本能力に対する需要を大幅に削減する。
論文 参考訳(メタデータ) (2024-02-27T12:26:07Z) - Pretraining Without Attention [114.99187017618408]
本研究では、状態空間モデル(SSM)に基づくシーケンスルーティングの最近の進歩を利用して、注意を払わずに事前学習を探索する。
BiGS は GLUE 上で BERT の事前トレーニング精度と一致し、近似なしで 4096 トークンの長期事前トレーニングに拡張できる。
論文 参考訳(メタデータ) (2022-12-20T18:50:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。