論文の概要: JOLT-SQL: Joint Loss Tuning of Text-to-SQL with Confusion-aware Noisy Schema Sampling
- arxiv url: http://arxiv.org/abs/2505.14305v1
- Date: Tue, 20 May 2025 12:55:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:53.184149
- Title: JOLT-SQL: Joint Loss Tuning of Text-to-SQL with Confusion-aware Noisy Schema Sampling
- Title(参考訳): JOLT-SQL: Confusion-aware Noisy Schema SmplingによるText-to-SQLの同時チューニング
- Authors: Jinwang Song, Hongying Zan, Kunli Zhang, Lingling Mu, Yingjie Han, Haobo Hua, Min Peng,
- Abstract要約: 本稿では,ノイズの多いスキーマ情報に対してロバスト性を実現するための単一ステージフレームワークJOLT-nativeを提案する。
JOLT-nativeは、混乱を意識したノイズの多いスキーマサンプリング戦略とともに、局所的な双方向の注意によって強化された差別的スキーマリンクを採用している。
SpiderとBIRDベンチマークの実験では、JOLTネイティブが最先端の実行精度を達成し、トレーニングと推論の効率を大幅に改善した。
- 参考スコア(独自算出の注目度): 6.197973833515416
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text-to-SQL, which maps natural language to SQL queries, has benefited greatly from recent advances in Large Language Models (LLMs). While LLMs offer various paradigms for this task, including prompting and supervised fine-tuning (SFT), SFT approaches still face challenges such as complex multi-stage pipelines and poor robustness to noisy schema information. To address these limitations, we present JOLT-SQL, a streamlined single-stage SFT framework that jointly optimizes schema linking and SQL generation via a unified loss. JOLT-SQL employs discriminative schema linking, enhanced by local bidirectional attention, alongside a confusion-aware noisy schema sampling strategy with selective attention to improve robustness under noisy schema conditions. Experiments on the Spider and BIRD benchmarks demonstrate that JOLT-SQL achieves state-of-the-art execution accuracy among comparable-size open-source models, while significantly improving both training and inference efficiency.
- Abstract(参考訳): 自然言語をSQLクエリにマッピングするText-to-SQLは、LLM(Large Language Models)の最近の進歩から大きな恩恵を受けている。
LLMはこのタスクに様々なパラダイムを提供しており、SFT(Produceing and supervised fine-tuning)を含むが、SFTアプローチは複雑なマルチステージパイプラインや、ノイズの多いスキーマ情報に対するロバスト性といった課題に直面している。
JOLT-SQLは、スキーマリンクとSQL生成を統一的な損失により共同で最適化する一段SFTフレームワークである。
JOLT-SQLは、ノイズの多いスキーマ条件下で堅牢性を改善するために、混乱を意識したノイズの多いスキーマサンプリング戦略とともに、局所的な双方向の注意によって強化された差別的スキーマリンクを採用する。
SpiderとBIRDベンチマークの実験では、JOLT-SQLは同等サイズのオープンソースモデルで最先端の実行精度を実現し、トレーニングと推論の効率を大幅に改善した。
関連論文リスト
- HI-SQL: Optimizing Text-to-SQL Systems through Dynamic Hint Integration [1.3927943269211591]
テキスト・ツー・ジェネレーションは自然言語とデータベースのギャップを埋め、ユーザーは専門知識を必要とせずにデータをクエリできる。
履歴クエリログを利用した新しいヒント生成機構を組み込んだパイプラインHI-theを提案する。
先行クエリを解析することにより、マルチテーブルおよびネストされた操作の複雑さを扱うことに焦点を当てたコンテキストヒントを生成する。
提案手法は,LCM生成クエリのクエリ精度を大幅に向上し,呼び出しやレイテンシの面で効率性を確保した。
論文 参考訳(メタデータ) (2025-06-11T12:07:55Z) - LLM-Symbolic Integration for Robust Temporal Tabular Reasoning [69.27153114778748]
本研究では,システムおよび制御された評価のための合成データセットであるTempTabQA-Cを紹介する。
この構造化アプローチにより、LLM(Large Language Models)はsqlクエリの生成と実行を可能にし、一般化とバイアス軽減の強化を行う。
論文 参考訳(メタデータ) (2025-06-06T05:14:04Z) - SchemaGraphSQL: Efficient Schema Linking with Pathfinding Graph Algorithms for Text-to-SQL on Large-Scale Databases [1.6544167074080365]
本稿では、まず、外部キー関係に基づくスキーマグラフを構築する、ゼロショットでトレーニング不要なスキーマリンク手法を提案する。
我々は、結合すべきテーブルや列の最適なシーケンスを特定するために、古典的なパスフィニングアルゴリズムと後処理を適用する。
提案手法はBIRDベンチマークの最先端結果を実現し,従来の特殊化,微調整,複雑な多段階LCMに基づくアプローチよりも優れていた。
論文 参考訳(メタデータ) (2025-05-23T20:42:36Z) - UNJOIN: Enhancing Multi-Table Text-to-SQL Generation via Schema Simplification [50.59009084277447]
論理生成からスキーマ要素の検索を分離するフレームワークUNJOINを紹介する。
最初の段階では、各列をテーブル名でプレフィックスすることで、データベース内のすべてのテーブルの列名を単一のテーブル表現にマージします。
第2段階では、クエリは、この単純化されたスキーマに基づいて生成され、JOIN、UNION、リレーショナルロジックを再構築することで、元のスキーマにマップされる。
論文 参考訳(メタデータ) (2025-05-23T17:28:43Z) - PSM-SQL: Progressive Schema Learning with Multi-granularity Semantics for Text-to-SQL [8.416319689644556]
冗長性を持った膨大な数のデータベーススキーマのため、タスクの変換は困難である。
マルチグラニュラリティセマンティクス(PSM-)とリンクするプログレッシブスキーマを提案する。
PSM-は列、テーブル、データベースレベルでスキーマのセマンティクスを学ぶ。
論文 参考訳(メタデータ) (2025-02-07T08:31:57Z) - MCTS-SQL: Light-Weight LLMs can Master the Text-to-SQL through Monte Carlo Tree Search [1.166711394125328]
Text-to-OTAは、NLP領域における基本的な課題である。
モンテカルロ木探索を用いた新しいフレームワークMCTS-OTAを提案する。
本稿では,反復中に事前情報を格納するトークンレベルのプレフィックスキャッシュ機構を提案する。
論文 参考訳(メタデータ) (2025-01-28T00:52:23Z) - ROUTE: Robust Multitask Tuning and Collaboration for Text-to-SQL [42.019659095480726]
我々は,オープンソースのText2用LLMの包括的機能を改善するために,RObust mUltitask Tuning and collaboration mEthod (ROUTE)を提案する。
提案手法は,tosql生成に関する各種合成トレーニングデータを用いて,マルチタスク制御ファインチューニング(SFT)から始める。
また,マルチタスク・コラボレーション・プロンプティング(MCP)戦略を導入し,スクル生成時の幻覚を低減する。
論文 参考訳(メタデータ) (2024-12-13T13:41:18Z) - RSL-SQL: Robust Schema Linking in Text-to-SQL Generation [51.00761167842468]
本稿では、双方向スキーマリンク、コンテキスト情報拡張、バイナリ選択戦略、マルチターン自己補正を組み合わせたRSLと呼ばれる新しいフレームワークを提案する。
ベンチマークの結果,オープンソースのソリューション間でのSOTA実行精度は67.2%,BIRDは87.9%,GPT-4オクルージョンは87.9%であった。
提案手法は,DeepSeekを同一のプロンプトで適用した場合,GPT-4ベースのテキスト・ツー・シークシステムよりも優れている。
論文 参考訳(メタデータ) (2024-10-31T16:22:26Z) - Synthesizing Text-to-SQL Data from Weak and Strong LLMs [68.69270834311259]
オープンソースとクローズドソースの大規模言語モデル(LLM)の能力ギャップは、テキスト・トゥ・タスクにおいて依然として課題である。
より大規模で強力なモデルによって生成されたデータと、より小さく、不整合なモデルによって生成されたエラー情報データを組み合わせた合成データアプローチを導入する。
論文 参考訳(メタデータ) (2024-08-06T15:40:32Z) - CHESS: Contextual Harnessing for Efficient SQL Synthesis [1.9506402593665235]
効率的でスケーラブルなテキスト・ツー・クエリのためのフレームワークであるCHESSを紹介します。
特殊エージェントは4つあり、それぞれが上記の課題の1つをターゲットにしている。
私たちのフレームワークは、さまざまなデプロイメント制約に適応する機能を提供する。
論文 参考訳(メタデータ) (2024-05-27T01:54:16Z) - Text-to-SQL Empowered by Large Language Models: A Benchmark Evaluation [76.76046657162306]
大規模言語モデル(LLM)はテキスト・ツー・タスクの新しいパラダイムとして登場した。
大規模言語モデル(LLM)はテキスト・ツー・タスクの新しいパラダイムとして登場した。
論文 参考訳(メタデータ) (2023-08-29T14:59:54Z) - SQL-PaLM: Improved Large Language Model Adaptation for Text-to-SQL (extended) [53.95151604061761]
本稿では,大規模言語モデル(LLM)を用いたテキスト・ツー・フィルタリングのフレームワークを提案する。
数発のプロンプトで、実行ベースのエラー解析による一貫性復号化の有効性について検討する。
命令の微調整により、チューニングされたLLMの性能に影響を及ぼす重要なパラダイムの理解を深める。
論文 参考訳(メタデータ) (2023-05-26T21:39:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。