論文の概要: SQL-CRAFT: Text-to-SQL through Interactive Refinement and Enhanced
Reasoning
- arxiv url: http://arxiv.org/abs/2402.14851v1
- Date: Tue, 20 Feb 2024 03:57:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-03 19:27:44.721475
- Title: SQL-CRAFT: Text-to-SQL through Interactive Refinement and Enhanced
Reasoning
- Title(参考訳): SQL-CRAFT: インタラクティブリファインメントと強化推論によるテキストからSQL
- Authors: Hanchen Xia, Feng Jiang, Naihao Deng, Cunxiang Wang, Guojiang Zhao,
Rada Mihalcea, and Yue Zhang
- Abstract要約: InteRActive reFinemenTとPythonによるテキストからデータベースへの推論を提案する。
我々は2つのテキストデータセット、SpiderとBirdで実験を行い、単純プロンプト法と比較してパフォーマンスが5.7%向上した。
我々の手法は現在のスパイダーリーダーボードの最先端を超越し、我々のフレームワークの有効性を実証する。
- 参考スコア(独自算出の注目度): 36.18766975534023
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern LLMs have become increasingly powerful, but they are still facing
challenges in specialized tasks such as Text-to-SQL. We propose SQL-CRAFT, a
framework to advance LLMs' SQL generation Capabilities through inteRActive
reFinemenT and enhanced reasoning. We leverage an Interactive Correction Loop
(IC-Loop) for LLMs to interact with databases automatically, as well as
Python-enhanced reasoning. We conduct experiments on two Text-to-SQL datasets,
Spider and Bird, with performance improvements of up to 5.7% compared to the
naive prompting method. Moreover, our method surpasses the current
state-of-the-art on the Spider Leaderboard, demonstrating the effectiveness of
our framework.
- Abstract(参考訳): 現代のLLMはますます強力になっていますが、Text-to-SQLのような特殊なタスクでは、依然として課題に直面しています。
InteRActive reFinemenTによるLLMのSQL生成能力を向上するフレームワークであるSQL-CRAFTを提案する。
LLMのためのInteractive Correction Loop(IC-Loop)を利用してデータベースと対話する。
我々は2つのText-to-SQLデータセット、SpiderとBirdで実験を行い、単純プロンプト法と比較してパフォーマンスが5.7%向上した。
さらに,本手法はスパイダーリーダーボードの最先端技術を超え,我々のフレームワークの有効性を実証する。
関連論文リスト
- PET-SQL: A Prompt-enhanced Two-stage Text-to-SQL Framework with Cross-consistency [19.067737007347613]
スパイダーベンチマークで新しいSOTA結果が得られ、実行精度は87.6%である。
提案手法は, 87.6%の精度で, スパイダーベンチマークで新しいSOTA結果が得られる。
論文 参考訳(メタデータ) (2024-03-13T02:32:41Z) - MAC-SQL: A Multi-Agent Collaborative Framework for Text-to-SQL [48.523327752786585]
我々は,新しいテキスト・ツー・データベース・ベースのマルチエージェント・コラボレーティブ・フレームワークであるMACを紹介する。
本フレームワークは,テキスト・ツー・ジェネレーションのためのコア・デコンポーザ・エージェントと,数発のチェーン・オブ・シークレット・推論を備える。
我々のフレームワークでは、GPT-4を全てのエージェントタスクの強力なバックボーンとして利用し、フレームワークの上限を決定する。
次に、GPT-4のようにCode 7Bを活用して、オープンソースの命令フォローモデルsql-Llamaを微調整する。
論文 参考訳(メタデータ) (2023-12-18T14:40:20Z) - SQLPrompt: In-Context Text-to-SQL with Minimal Labeled Data [54.69489315952524]
Prompt"は、Text-to-LLMのいくつかのショットプロンプト機能を改善するように設計されている。
Prompt"は、ラベル付きデータが少なく、テキスト内学習における従来のアプローチよりも大きなマージンで優れている。
emphPromptはテキスト内学習における従来の手法よりも優れており,ラベル付きデータはほとんどない。
論文 参考訳(メタデータ) (2023-11-06T05:24:06Z) - ACT-SQL: In-Context Learning for Text-to-SQL with
Automatically-Generated Chain-of-Thought [24.1320473171017]
大規模言語モデル(LLM)は、様々なドメインやタスクにおいて強力な能力を持つことが証明されている。
我々は、スキーマリンクに類似した方法で、チェーン・オブ・シンクレット(CoT)プロンプトを設計する。
我々は、テキストからテキストへのマルチターンタスクにコンテキスト内学習手法を拡張した。
論文 参考訳(メタデータ) (2023-10-26T12:16:25Z) - Text-to-SQL Empowered by Large Language Models: A Benchmark Evaluation [76.76046657162306]
大規模言語モデル(LLM)はテキスト・ツー・タスクの新しいパラダイムとして登場した。
大規模言語モデル(LLM)はテキスト・ツー・タスクの新しいパラダイムとして登場した。
論文 参考訳(メタデータ) (2023-08-29T14:59:54Z) - Retrieval-augmented GPT-3.5-based Text-to-SQL Framework with
Sample-aware Prompting and Dynamic Revision Chain [21.593701177605652]
サンプルと動的リビジョンチェーンを含むテキスト・ツー・アウェア・プロンプト・フレームワークを提案する。
提案手法は,質問項目のサンプルと詳細な情報を含む。
人間の介入なしに実行可能で正確なスクルを生成するために、我々は、きめ細かいフィードバックを反復的に適応する動的リビジョンチェーンを設計する。
論文 参考訳(メタデータ) (2023-07-11T07:16:22Z) - SQL-PaLM: Improved Large Language Model Adaptation for Text-to-SQL (extended) [53.95151604061761]
本稿では,大規模言語モデル(LLM)を用いたテキスト・ツー・フィルタリングのフレームワークを提案する。
数発のプロンプトで、実行ベースのエラー解析による一貫性復号化の有効性について検討する。
命令の微調整により、チューニングされたLLMの性能に影響を及ぼす重要なパラダイムの理解を深める。
論文 参考訳(メタデータ) (2023-05-26T21:39:05Z) - S$^2$SQL: Injecting Syntax to Question-Schema Interaction Graph Encoder
for Text-to-SQL Parsers [66.78665327694625]
テキスト-関係解析のための質問-エンコーダグラフに構文を注入するS$2$を提案する。
また、疎結合制約を用いて多様なエッジ埋め込みを誘導し、ネットワークの性能をさらに向上させる。
スパイダーとロバスト性設定の実験は、提案手法が事前学習モデルを使用する場合、既存のすべての手法より優れていることを示した。
論文 参考訳(メタデータ) (2022-03-14T09:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。