論文の概要: AI-Assisted SQL Authoring at Industry Scale
- arxiv url: http://arxiv.org/abs/2407.13280v1
- Date: Thu, 18 Jul 2024 08:33:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-19 16:12:25.907405
- Title: AI-Assisted SQL Authoring at Industry Scale
- Title(参考訳): 産業規模でのAI支援SQLオーサリング
- Authors: Chandra Maddila, Negar Ghorbani, Kosay Jabre, Vijayaraghavan Murali, Edwin Kim, Parth Thakkar, Nikolay Pavlovich Laptev, Olivia Harman, Diana Hsu, Rui Abreu, Peter C. Rigby,
- Abstract要約: SqlComposeは、生成AIを使用してデータ分析タスクを支援するツールである。
これは宣言的であり、形式的なテーブルスキーマを持ち、しばしば非線形で書かれる、という課題に対処する。
- 参考スコア(独自算出の注目度): 9.633217240177494
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: SqlCompose is a tool that uses generative AI to assist with data analytics tasks, specifically SQL queries. It addresses the challenges of SQL being declarative, having formal table schemas, and often being written in a non-linear manner. The authors develop an internal SQL benchmark to test the performance of the Public Llama model and find that it performs well, with a BLEU score of 53% for single-line predictions and 24% for multi-line predictions. They then fine-tune the Llama model on their internal data and database schemas, resulting in a substantial improvement in performance. They also develop a fill-in-the-middle model, SqlComposeFIM, which is aware of the context before and after the line(s) that need to be completed, and this model outperforms the other two models by 35 percentage points. Additionally, they measure how often the models get the correct table names and find that SqlComposeFIM is able to do this 75% of the time, a major improvement over the other two models. The authors also roll out SqlComposeFIM at Meta and receive positive feedback from users, including completing tedious or repetitive SQL clauses, suggesting boilerplate coding, and help in eliminating the need to remember difficult SQL syntax. However, some users report table and column name hallucinations, which has been reduced with the release of SqlComposeFIM. Overall, the SqlCompose models consistently outperform public and internal LLMs despite their smaller size, providing early indications that smaller specialist models can outperform larger general purpose models.
- Abstract(参考訳): SqlComposeは、生成AIを使用してデータ分析タスク、特にSQLクエリを支援するツールである。
SQLは宣言的であり、形式的なテーブルスキーマを持ち、しばしば非線形で書かれる、という課題に対処する。
著者らは、Public Llamaモデルの性能をテストするための内部SQLベンチマークを開発し、BLEUスコアが53%、マルチライン予測が24%であることを確認した。
その後、内部データとデータベーススキーマでLlamaモデルを微調整し、パフォーマンスを大幅に改善した。
また、中級モデルのSqlComposeFIMも開発しており、完成すべきラインの前後のコンテキストを認識しており、このモデルは他の2モデルよりも35ポイント向上している。
さらに、モデルが正しいテーブル名を取得する頻度を測定し、SqlComposeFIMが、他の2つのモデルよりも大きな改善である、この75%の時間でこれを行うことができることを発見した。
著者らはMetaでSqlComposeFIMを公開し、退屈で反復的なSQL節の完成、定型的なコーディングの提案、難しいSQL構文を覚える必要性の排除など、ユーザから肯定的なフィードバックを受けている。
しかし、SqlComposeFIMのリリースで減少しているテーブルや列名幻覚を報告しているユーザもいる。
全体として、SqlComposeモデルはサイズが小さいにもかかわらず、パブリックおよび内部のLLMよりも一貫して優れており、より小型のスペシャリストモデルの方がより大きな汎用モデルより優れたことを早期に示唆している。
関連論文リスト
- RB-SQL: A Retrieval-based LLM Framework for Text-to-SQL [48.516004807486745]
文脈内学習を伴う大規模言語モデル(LLM)は、テキスト・ツー・タスクの性能を大幅に改善した。
In-context prompt Engineering のための新しい検索ベースフレームワーク RB- を提案する。
実験により,我々のモデルは,公開データセットのBIRDとSpiderの競合ベースラインよりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2024-07-11T08:19:58Z) - FeatAug: Automatic Feature Augmentation From One-to-Many Relationship Tables [4.058220332950672]
1対多の関係テーブルの機能強化は、MLモデル開発において重要な問題であるが、難しい問題である。
本稿では,1対多の関係テーブルから述語クエリを自動的に抽出する機能拡張フレームワークFEATAUGを提案する。
FeatAugがFeattoolsよりも効果的な特徴を抽出できることを実世界の4つのデータセットで実証した。
論文 参考訳(メタデータ) (2024-03-11T01:44:14Z) - Blar-SQL: Faster, Stronger, Smaller NL2SQL [0.0]
データベースの理解とクエリ生成において,タスクの分解が大規模言語モデル(LLM)に大きな利益をもたらすことを示す。
我々は、より多くの情報を限られたコンテキストに適合させるために、スキーマをチャンクに分割する新しいフレームワークを提案する。
その結果,GPT-4はGPT-4の135倍,90倍,100倍以上の速さであった。
論文 参考訳(メタデータ) (2024-01-04T16:50:52Z) - SQLPrompt: In-Context Text-to-SQL with Minimal Labeled Data [54.69489315952524]
Prompt"は、Text-to-LLMのいくつかのショットプロンプト機能を改善するように設計されている。
Prompt"は、ラベル付きデータが少なく、テキスト内学習における従来のアプローチよりも大きなマージンで優れている。
emphPromptはテキスト内学習における従来の手法よりも優れており,ラベル付きデータはほとんどない。
論文 参考訳(メタデータ) (2023-11-06T05:24:06Z) - Benchmarking and Improving Text-to-SQL Generation under Ambiguity [25.283118418288293]
我々はAmbiQTと呼ばれる新しいベンチマークを開発し、各テキストは語彙的および/または構造的あいまいさのために2つのもっともらしいSQLとして解釈できる。
提案するLogicalBeamは,計画ベースのテンプレート生成と制約付きインフィルを併用して,sql論理空間をナビゲートする新しい復号アルゴリズムである。
論文 参考訳(メタデータ) (2023-10-20T17:00:53Z) - Natural language to SQL in low-code platforms [0.0]
自然言語(NL)クエリを記述可能なパイプラインを提案する。
OutSystemsユーザによって最も頻繁に実行されるクエリをカバーするデータを収集、ラベル付け、検証します。
パイプライン全体について説明します。フィードバックループによって,運用データの迅速な収集が可能になります。
論文 参考訳(メタデータ) (2023-08-29T11:59:02Z) - SQL-PaLM: Improved Large Language Model Adaptation for Text-to-SQL (extended) [53.95151604061761]
本稿では,大規模言語モデル(LLM)を用いたテキスト・ツー・フィルタリングのフレームワークを提案する。
数発のプロンプトで、実行ベースのエラー解析による一貫性復号化の有効性について検討する。
命令の微調整により、チューニングされたLLMの性能に影響を及ぼす重要なパラダイムの理解を深める。
論文 参考訳(メタデータ) (2023-05-26T21:39:05Z) - UNITE: A Unified Benchmark for Text-to-SQL Evaluation [72.72040379293718]
テキスト・ツー・ドメイン・システムのためのUNIfiedベンチマークを導入する。
公開されているテキストからドメインへのデータセットと29Kデータベースで構成されている。
広く使われているSpiderベンチマークと比較すると、SQLパターンの3倍の増加が紹介されている。
論文 参考訳(メタデータ) (2023-05-25T17:19:52Z) - Can LLM Already Serve as A Database Interface? A BIg Bench for
Large-Scale Database Grounded Text-to-SQLs [89.68522473384522]
テキストから効率のよいタスクをベースとした大規模データベースのための大規模なベンチマークであるBirdを紹介します。
データベースの値に重点を置いていると、汚いデータベースコンテンツに対する新たな課題が浮き彫りになる。
最も効果的なテキストから効率のよいモデルであるChatGPTでさえ、実行精度はわずか40.08%である。
論文 参考訳(メタデータ) (2023-05-04T19:02:29Z) - Conversational Text-to-SQL: An Odyssey into State-of-the-Art and
Challenges Ahead [6.966624873109535]
State-of-the-art (SOTA) システムは、T5ファミリーのような大規模で訓練済み、微調整された言語モデルを使用する。
トレーニング中に個別のプロンプトを持つコヒーレントなタスクに対するマルチタスク(MT)により、特殊なテキストから3つのモデルよりも改善する。
我々は、領域と構成の一般化に起因する誤りを分解する研究を行う。
論文 参考訳(メタデータ) (2023-02-21T23:15:33Z) - Improving Text-to-SQL Semantic Parsing with Fine-grained Query
Understanding [84.04706075621013]
トークンレベルのきめ細かいクエリ理解に基づく汎用的モジュール型ニューラルネットワーク解析フレームワークを提案する。
我々のフレームワークは、名前付きエンティティ認識(NER)、ニューラルエンティティリンカ(NEL)、ニューラルエンティティリンカ(NSP)の3つのモジュールから構成されている。
論文 参考訳(メタデータ) (2022-09-28T21:00:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。