論文の概要: DCG-SQL: Enhancing In-Context Learning for Text-to-SQL with Deep Contextual Schema Link Graph
- arxiv url: http://arxiv.org/abs/2505.19956v1
- Date: Mon, 26 May 2025 13:19:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:43.456438
- Title: DCG-SQL: Enhancing In-Context Learning for Text-to-SQL with Deep Contextual Schema Link Graph
- Title(参考訳): DCG-SQL:Deep Contextual Schema Link GraphによるテキストからSQLへのインコンテキスト学習の強化
- Authors: Jihyung Lee, Jin-Seop Lee, Jaehoon Lee, YunSeok Choi, Jee-Hyong Lee,
- Abstract要約: 本稿では,実演を効果的に検索し,sqlクエリを生成する新しい手法を提案する。
質問とデータベースのスキーマ項目のキー情報と関連性を含むDeep Contextual Link Graphを構築した。
- 参考スコア(独自算出の注目度): 14.637276700334018
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Text-to-SQL, which translates a natural language question into an SQL query, has advanced with in-context learning of Large Language Models (LLMs). However, existing methods show little improvement in performance compared to randomly chosen demonstrations, and significant performance drops when smaller LLMs (e.g., Llama 3.1-8B) are used. This indicates that these methods heavily rely on the intrinsic capabilities of hyper-scaled LLMs, rather than effectively retrieving useful demonstrations. In this paper, we propose a novel approach for effectively retrieving demonstrations and generating SQL queries. We construct a Deep Contextual Schema Link Graph, which contains key information and semantic relationship between a question and its database schema items. This graph-based structure enables effective representation of Text-to-SQL samples and retrieval of useful demonstrations for in-context learning. Experimental results on the Spider benchmark demonstrate the effectiveness of our approach, showing consistent improvements in SQL generation performance and efficiency across both hyper-scaled LLMs and small LLMs. Our code will be released.
- Abstract(参考訳): 自然言語の質問をSQLクエリに変換するText-to-SQLは、LLM(Large Language Models)のコンテキスト内学習によって進化した。
しかし、既存の手法ではランダムに選択されたデモに比べて性能が向上せず、LLM(例えばLlama 3.1-8B)を使用すると大幅な性能低下が生じる。
このことは、これらの手法が有用な実演を効果的に回収するのではなく、超大規模LLMの本質的な能力に大きく依存していることを示している。
本稿では,実演を効果的に検索し,SQLクエリを生成する新しい手法を提案する。
本研究では,質問とそのデータベーススキーマ項目間のキー情報と意味的関係を含むDeep Contextual Schema Link Graphを構築した。
このグラフベースの構造は、テキストからSQLへのサンプルの効率的な表現と、テキスト内学習に有用なデモの検索を可能にする。
提案手法の有効性を実験的に検証し,超大規模LLMと小型LLMの双方でSQL生成性能と効率が一貫した改善を示した。
私たちのコードは解放されます。
関連論文リスト
- Semantic Captioning: Benchmark Dataset and Graph-Aware Few-Shot In-Context Learning for SQL2Text [3.4688186440441893]
大規模言語モデル (LLM) は様々なNLPタスクにおいて顕著な性能を示した。
逆のプロセスは、コードを自然言語に翻訳し、セマンティックキャプションと呼ばれるが、あまり注目されていない。
本稿では,クエリの理解と説明に関する重要なニーズに対処するため,2Textのキャプションに着目した。
論文 参考訳(メタデータ) (2025-01-06T17:36:09Z) - RB-SQL: A Retrieval-based LLM Framework for Text-to-SQL [48.516004807486745]
文脈内学習を伴う大規模言語モデル(LLM)は、テキスト・ツー・タスクの性能を大幅に改善した。
In-context prompt Engineering のための新しい検索ベースフレームワーク RB- を提案する。
実験により,我々のモデルは,公開データセットのBIRDとSpiderの競合ベースラインよりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2024-07-11T08:19:58Z) - RH-SQL: Refined Schema and Hardness Prompt for Text-to-SQL [1.734218686180302]
本稿では,精製実行モデルとハードネス・プロンプトに基づくテキスト・トゥ・エクセルの手法を提案する。
パフォーマンスを維持しながら、ストレージとトレーニングのコストを削減する。
スパイダーデータセットに関する我々の実験は、特に大規模なLMを用いて、82.6%の異常な精度(EX)を達成した。
論文 参考訳(メタデータ) (2024-06-13T14:04:34Z) - Text-to-SQL Empowered by Large Language Models: A Benchmark Evaluation [76.76046657162306]
大規模言語モデル(LLM)はテキスト・ツー・タスクの新しいパラダイムとして登場した。
大規模言語モデル(LLM)はテキスト・ツー・タスクの新しいパラダイムとして登場した。
論文 参考訳(メタデータ) (2023-08-29T14:59:54Z) - SQL-PaLM: Improved Large Language Model Adaptation for Text-to-SQL (extended) [53.95151604061761]
本稿では,大規模言語モデル(LLM)を用いたテキスト・ツー・フィルタリングのフレームワークを提案する。
数発のプロンプトで、実行ベースのエラー解析による一貫性復号化の有効性について検討する。
命令の微調整により、チューニングされたLLMの性能に影響を及ぼす重要なパラダイムの理解を深める。
論文 参考訳(メタデータ) (2023-05-26T21:39:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。