論文の概要: JOLT-SQL: Joint Loss Tuning of Text-to-SQL with Confusion-aware Noisy Schema Sampling
- arxiv url: http://arxiv.org/abs/2505.14305v1
- Date: Tue, 20 May 2025 12:55:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:53.184149
- Title: JOLT-SQL: Joint Loss Tuning of Text-to-SQL with Confusion-aware Noisy Schema Sampling
- Title(参考訳): JOLT-SQL: Confusion-aware Noisy Schema SmplingによるText-to-SQLの同時チューニング
- Authors: Jinwang Song, Hongying Zan, Kunli Zhang, Lingling Mu, Yingjie Han, Haobo Hua, Min Peng,
- Abstract要約: 本稿では,ノイズの多いスキーマ情報に対してロバスト性を実現するための単一ステージフレームワークJOLT-nativeを提案する。
JOLT-nativeは、混乱を意識したノイズの多いスキーマサンプリング戦略とともに、局所的な双方向の注意によって強化された差別的スキーマリンクを採用している。
SpiderとBIRDベンチマークの実験では、JOLTネイティブが最先端の実行精度を達成し、トレーニングと推論の効率を大幅に改善した。
- 参考スコア(独自算出の注目度): 6.197973833515416
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text-to-SQL, which maps natural language to SQL queries, has benefited greatly from recent advances in Large Language Models (LLMs). While LLMs offer various paradigms for this task, including prompting and supervised fine-tuning (SFT), SFT approaches still face challenges such as complex multi-stage pipelines and poor robustness to noisy schema information. To address these limitations, we present JOLT-SQL, a streamlined single-stage SFT framework that jointly optimizes schema linking and SQL generation via a unified loss. JOLT-SQL employs discriminative schema linking, enhanced by local bidirectional attention, alongside a confusion-aware noisy schema sampling strategy with selective attention to improve robustness under noisy schema conditions. Experiments on the Spider and BIRD benchmarks demonstrate that JOLT-SQL achieves state-of-the-art execution accuracy among comparable-size open-source models, while significantly improving both training and inference efficiency.
- Abstract(参考訳): 自然言語をSQLクエリにマッピングするText-to-SQLは、LLM(Large Language Models)の最近の進歩から大きな恩恵を受けている。
LLMはこのタスクに様々なパラダイムを提供しており、SFT(Produceing and supervised fine-tuning)を含むが、SFTアプローチは複雑なマルチステージパイプラインや、ノイズの多いスキーマ情報に対するロバスト性といった課題に直面している。
JOLT-SQLは、スキーマリンクとSQL生成を統一的な損失により共同で最適化する一段SFTフレームワークである。
JOLT-SQLは、ノイズの多いスキーマ条件下で堅牢性を改善するために、混乱を意識したノイズの多いスキーマサンプリング戦略とともに、局所的な双方向の注意によって強化された差別的スキーマリンクを採用する。
SpiderとBIRDベンチマークの実験では、JOLT-SQLは同等サイズのオープンソースモデルで最先端の実行精度を実現し、トレーニングと推論の効率を大幅に改善した。
関連論文リスト
- PSM-SQL: Progressive Schema Learning with Multi-granularity Semantics for Text-to-SQL [8.416319689644556]
冗長性を持った膨大な数のデータベーススキーマのため、タスクの変換は困難である。
マルチグラニュラリティセマンティクス(PSM-)とリンクするプログレッシブスキーマを提案する。
PSM-は列、テーブル、データベースレベルでスキーマのセマンティクスを学ぶ。
論文 参考訳(メタデータ) (2025-02-07T08:31:57Z) - ROUTE: Robust Multitask Tuning and Collaboration for Text-to-SQL [42.019659095480726]
我々は,オープンソースのText2用LLMの包括的機能を改善するために,RObust mUltitask Tuning and collaboration mEthod (ROUTE)を提案する。
提案手法は,tosql生成に関する各種合成トレーニングデータを用いて,マルチタスク制御ファインチューニング(SFT)から始める。
また,マルチタスク・コラボレーション・プロンプティング(MCP)戦略を導入し,スクル生成時の幻覚を低減する。
論文 参考訳(メタデータ) (2024-12-13T13:41:18Z) - RSL-SQL: Robust Schema Linking in Text-to-SQL Generation [51.00761167842468]
本稿では、双方向スキーマリンク、コンテキスト情報拡張、バイナリ選択戦略、マルチターン自己補正を組み合わせたRSLと呼ばれる新しいフレームワークを提案する。
ベンチマークの結果,オープンソースのソリューション間でのSOTA実行精度は67.2%,BIRDは87.9%,GPT-4オクルージョンは87.9%であった。
提案手法は,DeepSeekを同一のプロンプトで適用した場合,GPT-4ベースのテキスト・ツー・シークシステムよりも優れている。
論文 参考訳(メタデータ) (2024-10-31T16:22:26Z) - Synthesizing Text-to-SQL Data from Weak and Strong LLMs [68.69270834311259]
オープンソースとクローズドソースの大規模言語モデル(LLM)の能力ギャップは、テキスト・トゥ・タスクにおいて依然として課題である。
より大規模で強力なモデルによって生成されたデータと、より小さく、不整合なモデルによって生成されたエラー情報データを組み合わせた合成データアプローチを導入する。
論文 参考訳(メタデータ) (2024-08-06T15:40:32Z) - CHESS: Contextual Harnessing for Efficient SQL Synthesis [1.9506402593665235]
効率的でスケーラブルなテキスト・ツー・クエリのためのフレームワークであるCHESSを紹介します。
特殊エージェントは4つあり、それぞれが上記の課題の1つをターゲットにしている。
私たちのフレームワークは、さまざまなデプロイメント制約に適応する機能を提供する。
論文 参考訳(メタデータ) (2024-05-27T01:54:16Z) - Text-to-SQL Empowered by Large Language Models: A Benchmark Evaluation [76.76046657162306]
大規模言語モデル(LLM)はテキスト・ツー・タスクの新しいパラダイムとして登場した。
大規模言語モデル(LLM)はテキスト・ツー・タスクの新しいパラダイムとして登場した。
論文 参考訳(メタデータ) (2023-08-29T14:59:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。