論文の概要: MAC-SQL: A Multi-Agent Collaborative Framework for Text-to-SQL
- arxiv url: http://arxiv.org/abs/2312.11242v2
- Date: Tue, 26 Dec 2023 03:25:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 20:48:03.593410
- Title: MAC-SQL: A Multi-Agent Collaborative Framework for Text-to-SQL
- Title(参考訳): MAC-SQL: テキストからSQLへのコラボレーションフレームワーク
- Authors: Bing Wang, Changyu Ren, Jian Yang, Xinnian Liang, Jiaqi Bai, Qian-Wen
Zhang, Zhao Yan, Zhoujun Li
- Abstract要約: 我々はtext-to-Yourself タスク用に設計された新しいマルチエージェント協調フレームワーク TextscMAC を提案する。
我々のフレームワークは3つのエージェントで構成されている: textitSelector, accountable to condensous database andserving relevant table schemas for user question; textitDe。
- 参考スコア(独自算出の注目度): 36.62738802570278
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recent advancements in Text-to-SQL methods employing Large Language Models
(LLMs) have demonstrated remarkable performance. Nonetheless, these approaches
continue to encounter difficulties when handling extensive databases, intricate
user queries, and erroneous SQL results. To tackle these challenges, we present
\textsc{MAC-SQL}, a novel LLM-based multi-agent collaborative framework
designed for the Text-to-SQL task. Our framework comprises three agents: the
\textit{Selector}, accountable for condensing voluminous databases and
preserving relevant table schemas for user questions; the \textit{Decomposer},
which disassembles complex user questions into more straightforward
sub-problems and resolves them progressively; and the \textit{Refiner}, tasked
with validating and refining defective SQL queries. We perform comprehensive
experiments on two Text-to-SQL datasets, BIRD and Spider, achieving a
state-of-the-art execution accuracy of 59.59\% on the BIRD test set. Moreover,
we have open-sourced an instruction fine-tuning model, SQL-Llama, based on Code
Llama 7B, in addition to an agent instruction dataset derived from training
data based on BIRD and Spider. The SQL-Llama model has demonstrated encouraging
results on the development sets of both BIRD and Spider. However, when compared
to GPT-4, there remains a notable potential for enhancement. Our code and data
are publicly available at https://github.com/wbbeyourself/MAC-SQL.
- Abstract(参考訳): 大規模言語モデル(LLM)を用いたテキストからSQLへの手法の最近の進歩は顕著な性能を示している。
それでもこれらのアプローチは、広範なデータベース処理、複雑なユーザクエリ、誤ったSQL結果の処理において、引き続き困難に直面する。
これらの課題に対処するために,テキスト・トゥ・SQLタスク用に設計された新しいLLMベースのマルチエージェント協調フレームワークである‘textsc{MAC-SQL} を紹介する。
このフレームワークは、3つのエージェントで構成されている: \textit{selector} は、voluminous database を凝縮し、関連するテーブルスキーマをユーザ質問のために保持する責任を負う; \textit{decomposer} は、複雑なユーザー質問をより単純なサブ問題に分解し、それらを徐々に解決する; \textit{refiner} は、欠陥のあるsqlクエリの検証と改善を任務とする。
BIRDとSpiderの2つのText-to-SQLデータセットに対して総合的な実験を行い、BIRDテストセット上で59.59\%の最先端実行精度を達成する。
さらに,コードLlama 7Bに基づくインストラクション微調整モデルSQL-Llamaをオープンソース化し,BIRDとSpiderに基づくトレーニングデータから派生したエージェント命令データセットを作成した。
sql-llamaモデルは、birdとspiderの開発セットで奨励的な結果を示している。
しかし、GPT-4と比較しても、増強の可能性は顕著である。
私たちのコードとデータはhttps://github.com/wbbeyourself/MAC-SQLで公開されています。
関連論文リスト
- RSL-SQL: Robust Schema Linking in Text-to-SQL Generation [51.00761167842468]
本稿では、双方向スキーマリンク、コンテキスト情報拡張、バイナリ選択戦略、マルチターン自己補正を組み合わせたRSLと呼ばれる新しいフレームワークを提案する。
ベンチマークの結果,オープンソースのソリューション間でのSOTA実行精度は67.2%,BIRDは87.9%,GPT-4オクルージョンは87.9%であった。
提案手法は,DeepSeekを同一のプロンプトで適用した場合,GPT-4ベースのテキスト・ツー・シークシステムよりも優れている。
論文 参考訳(メタデータ) (2024-10-31T16:22:26Z) - Enhancing LLM Fine-tuning for Text-to-SQLs by SQL Quality Measurement [1.392448435105643]
Text-to-sにより、専門家でないユーザは、自然言語クエリを使用してデータベースから要求された情報を取得することができる。
GPT4やT5のような現在の最先端(SOTA)モデルは、BIRDのような大規模ベンチマークで素晴らしいパフォーマンスを示している。
本稿では,テキスト・ツー・ス・パフォーマンスを向上させるためにSQL Qualityのみを必要とする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-10-02T17:21:51Z) - PTD-SQL: Partitioning and Targeted Drilling with LLMs in Text-to-SQL [54.304872649870575]
大規模言語モデル(LLM)は、テキスト・トゥ・センス・タスクの強力なツールとして登場した。
本研究では,クエリグループパーティショニングを用いることで,単一問題に特有の思考プロセスの学習に集中できることを示す。
論文 参考訳(メタデータ) (2024-09-21T09:33:14Z) - MAG-SQL: Multi-Agent Generative Approach with Soft Schema Linking and Iterative Sub-SQL Refinement for Text-to-SQL [15.824894030016187]
近年,テキスト・トゥ・コンテクスト・タスクにおいて,インコンテキスト・ラーニングに基づく手法が顕著な成功を収めている。
これらのモデルのパフォーマンスと、複雑なデータベーススキーマを持つデータセット上でのヒューマンパフォーマンスとの間には、依然として大きなギャップがあります。
本フレームワークでは,データベース内の列の選択にテーブルの要約を含むエンティティベースの手法を用い,それらの複雑な質問を分解するために,新たな目標条件分解手法を導入する。
論文 参考訳(メタデータ) (2024-08-15T04:57:55Z) - SQLfuse: Enhancing Text-to-SQL Performance through Comprehensive LLM Synergy [24.919119901664843]
本稿では,オープンソースのLarge Language Models(LLM)を,クエリの精度とユーザビリティを高めるための一連のツールに統合する,堅牢なシステムを提案する。
Ant GroupによるSpider Leaderboardとデプロイメントのリードパフォーマンスによって実証された。
論文 参考訳(メタデータ) (2024-07-19T06:01:57Z) - RB-SQL: A Retrieval-based LLM Framework for Text-to-SQL [48.516004807486745]
文脈内学習を伴う大規模言語モデル(LLM)は、テキスト・ツー・タスクの性能を大幅に改善した。
In-context prompt Engineering のための新しい検索ベースフレームワーク RB- を提案する。
実験により,我々のモデルは,公開データセットのBIRDとSpiderの競合ベースラインよりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2024-07-11T08:19:58Z) - Blar-SQL: Faster, Stronger, Smaller NL2SQL [0.0]
データベースの理解とクエリ生成において,タスクの分解が大規模言語モデル(LLM)に大きな利益をもたらすことを示す。
我々は、より多くの情報を限られたコンテキストに適合させるために、スキーマをチャンクに分割する新しいフレームワークを提案する。
その結果,GPT-4はGPT-4の135倍,90倍,100倍以上の速さであった。
論文 参考訳(メタデータ) (2024-01-04T16:50:52Z) - Text-to-SQL Empowered by Large Language Models: A Benchmark Evaluation [76.76046657162306]
大規模言語モデル(LLM)はテキスト・ツー・タスクの新しいパラダイムとして登場した。
大規模言語モデル(LLM)はテキスト・ツー・タスクの新しいパラダイムとして登場した。
論文 参考訳(メタデータ) (2023-08-29T14:59:54Z) - SQL-PaLM: Improved Large Language Model Adaptation for Text-to-SQL (extended) [53.95151604061761]
本稿では,大規模言語モデル(LLM)を用いたテキスト・ツー・フィルタリングのフレームワークを提案する。
数発のプロンプトで、実行ベースのエラー解析による一貫性復号化の有効性について検討する。
命令の微調整により、チューニングされたLLMの性能に影響を及ぼす重要なパラダイムの理解を深める。
論文 参考訳(メタデータ) (2023-05-26T21:39:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。