論文の概要: GEMMA-SQL: A Novel Text-to-SQL Model Based on Large Language Models
- arxiv url: http://arxiv.org/abs/2511.04710v1
- Date: Wed, 05 Nov 2025 11:39:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.54542
- Title: GEMMA-SQL: A Novel Text-to-SQL Model Based on Large Language Models
- Title(参考訳): GEMMA-SQL: 大規模言語モデルに基づく新しいテキスト-SQLモデル
- Authors: Hari Mohan Pandey, Anshul Gupta, Subham Sarkar, Minakshi Tomer, Schneider Johannes, Yan Gong,
- Abstract要約: 本稿では,オープンソースのGemma 2Bアーキテクチャ上に構築された,軽量かつ効率的なテキスト-知識モデルであるGEMMA-を紹介する。
多くの大規模言語モデル(LLM)とは異なり、GEMMA-はリソース効率が良く反復的な方法で微調整され、低コストのハードウェアにデプロイできる。
- 参考スコア(独自算出の注目度): 7.084783584793051
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Text-to-SQL systems enable users to interact with structured databases using natural language, eliminating the need for specialized programming knowledge. In this work, we introduce GEMMA-SQL, a lightweight and efficient text-to-SQL model built upon the open-source Gemma 2B architecture. Unlike many large language models (LLMs), GEMMA-SQL is fine-tuned in a resource-efficient, iterative manner and can be deployed on low-cost hardware. Leveraging the SPIDER benchmark for training and evaluation, GEMMA-SQL combines multiple prompting strategies, including few-shot learning, to enhance SQL query generation accuracy. The instruction-tuned variant, GEMMA-SQL Instruct, achieves 66.8% Test-Suite accuracy and 63.3% Exact Set Match accuracy, outperforming several state-of-the-art baselines such as IRNet, RYANSQL, and CodeXDavinci. The proposed approach demonstrates that effective prompt design and targeted instruction tuning can significantly boost performance while maintaining high scalability and adaptability. These results position GEMMA-SQL as a practical, open-source alternative for robust and accessible text-to-SQL systems.
- Abstract(参考訳): テキストからSQLへのシステムにより、自然言語を使って構造化データベースと対話でき、特殊なプログラミング知識を必要としない。
本稿では,オープンソースのGemma 2Bアーキテクチャ上に構築された軽量で効率的なテキスト間SQLモデルであるGEMMA-SQLを紹介する。
多くの大規模言語モデル(LLM)とは異なり、GEMMA-SQLはリソース効率が良く反復的な方法で微調整され、低コストのハードウェアにデプロイできる。
トレーニングと評価のためにSPIDERベンチマークを活用することで、GEMMA-SQLは、数ショットの学習を含む複数のプロンプト戦略を組み合わせて、SQLクエリ生成の精度を向上させる。
GEMMA-SQLインストラクトは66.8%のテストスート精度と63.3%の実行セットマッチングの精度を達成し、IRNet、RYANSQL、CodeXDavinciといった最先端のベースラインを上回っている。
提案手法は,効率的なプロンプト設計と目標命令チューニングにより,高いスケーラビリティと適応性を維持しつつ,性能を大幅に向上させることができることを示す。
これらの結果は、GEMMA-SQLを、堅牢でアクセスしやすいテキスト-SQLシステムの実用的でオープンソースの代替品と位置づけている。
関連論文リスト
- Auto prompt sql: a resource-efficient architecture for text-to-sql translation in constrained environments [5.789581056701203]
本稿では,リソース効率の良い小型オープンソースモデルと,テキスト翻訳のための大規模クローズドソースモデルの強力な機能とのギャップを埋めるために設計された,新しいアーキテクチャであるAuto Promptsql(AP-)を紹介する。
論文 参考訳(メタデータ) (2025-06-04T06:04:46Z) - SQLPrompt: In-Context Text-to-SQL with Minimal Labeled Data [54.69489315952524]
Prompt"は、Text-to-LLMのいくつかのショットプロンプト機能を改善するように設計されている。
Prompt"は、ラベル付きデータが少なく、テキスト内学習における従来のアプローチよりも大きなマージンで優れている。
emphPromptはテキスト内学習における従来の手法よりも優れており,ラベル付きデータはほとんどない。
論文 参考訳(メタデータ) (2023-11-06T05:24:06Z) - SQL-PaLM: Improved Large Language Model Adaptation for Text-to-SQL (extended) [53.95151604061761]
本稿では,大規模言語モデル(LLM)を用いたテキスト・ツー・フィルタリングのフレームワークを提案する。
数発のプロンプトで、実行ベースのエラー解析による一貫性復号化の有効性について検討する。
命令の微調整により、チューニングされたLLMの性能に影響を及ぼす重要なパラダイムの理解を深める。
論文 参考訳(メタデータ) (2023-05-26T21:39:05Z) - UNITE: A Unified Benchmark for Text-to-SQL Evaluation [72.72040379293718]
テキスト・ツー・ドメイン・システムのためのUNIfiedベンチマークを導入する。
公開されているテキストからドメインへのデータセットと29Kデータベースで構成されている。
広く使われているSpiderベンチマークと比較すると、SQLパターンの3倍の増加が紹介されている。
論文 参考訳(メタデータ) (2023-05-25T17:19:52Z) - Can LLM Already Serve as A Database Interface? A BIg Bench for
Large-Scale Database Grounded Text-to-SQLs [89.68522473384522]
テキストから効率のよいタスクをベースとした大規模データベースのための大規模なベンチマークであるBirdを紹介します。
データベースの値に重点を置いていると、汚いデータベースコンテンツに対する新たな課題が浮き彫りになる。
最も効果的なテキストから効率のよいモデルであるChatGPTでさえ、実行精度はわずか40.08%である。
論文 参考訳(メタデータ) (2023-05-04T19:02:29Z) - A Survey on Text-to-SQL Parsing: Concepts, Methods, and Future
Directions [102.8606542189429]
テキストからコーパスへのパースの目的は、自然言語(NL)質問をデータベースが提供するエビデンスに基づいて、対応する構造化クエリ言語()に変換することである。
ディープニューラルネットワークは、入力NL質問から出力クエリへのマッピング関数を自動的に学習するニューラルジェネレーションモデルによって、このタスクを大幅に進歩させた。
論文 参考訳(メタデータ) (2022-08-29T14:24:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。