論文の概要: LearNAT: Learning NL2SQL with AST-guided Task Decomposition for Large Language Models
- arxiv url: http://arxiv.org/abs/2504.02327v1
- Date: Thu, 03 Apr 2025 06:59:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-04 12:57:05.523520
- Title: LearNAT: Learning NL2SQL with AST-guided Task Decomposition for Large Language Models
- Title(参考訳): LearNAT: AST誘導タスク分解による大規模言語モデルのNL2SQL学習
- Authors: Weibin Liao, Xin Gao, Tianyu Jia, Rihong Qiu, Yifan Zhu, Yang Lin, Xu Chu, Junfeng Zhao, Yasha Wang,
- Abstract要約: 複雑なNL2タスクにおいて,タスク分解と強化学習により,LLM(Large Language Models)の性能を向上させる新しいフレームワークを提案する。
LearNATはGPT-4に匹敵する性能を実現し、効率とアクセシビリティを向上させる。
- 参考スコア(独自算出の注目度): 28.17495423015754
- License:
- Abstract: Natural Language to SQL (NL2SQL) has emerged as a critical task for enabling seamless interaction with databases. Recent advancements in Large Language Models (LLMs) have demonstrated remarkable performance in this domain. However, existing NL2SQL methods predominantly rely on closed-source LLMs leveraging prompt engineering, while open-source models typically require fine-tuning to acquire domain-specific knowledge. Despite these efforts, open-source LLMs struggle with complex NL2SQL tasks due to the indirect expression of user query objectives and the semantic gap between user queries and database schemas. Inspired by the application of reinforcement learning in mathematical problem-solving to encourage step-by-step reasoning in LLMs, we propose LearNAT (Learning NL2SQL with AST-guided Task Decomposition), a novel framework that improves the performance of open-source LLMs on complex NL2SQL tasks through task decomposition and reinforcement learning. LearNAT introduces three key components: (1) a Decomposition Synthesis Procedure that leverages Abstract Syntax Trees (ASTs) to guide efficient search and pruning strategies for task decomposition, (2) Margin-aware Reinforcement Learning, which employs fine-grained step-level optimization via DPO with AST margins, and (3) Adaptive Demonstration Reasoning, a mechanism for dynamically selecting relevant examples to enhance decomposition capabilities. Extensive experiments on two benchmark datasets, Spider and BIRD, demonstrate that LearNAT enables a 7B-parameter open-source LLM to achieve performance comparable to GPT-4, while offering improved efficiency and accessibility.
- Abstract(参考訳): Natural Language to SQL (NL2SQL)は、データベースとのシームレスな対話を可能にする重要なタスクとして登場した。
大規模言語モデル(LLM)の最近の進歩は、この領域で顕著なパフォーマンスを示している。
しかしながら、既存のNL2SQLメソッドは主に、迅速なエンジニアリングを活用するクローズドソースのLLMに依存している。
これらの努力にもかかわらず、オープンソースのLLMは、ユーザクエリ目的の間接的な表現と、ユーザクエリとデータベーススキーマ間のセマンティックギャップのために、複雑なNL2SQLタスクに苦労している。
LLMにおけるステップ・バイ・ステップの推論を促進するために、強化学習を数学的問題解決に適用することにより、複雑なNL2SQLタスクにおけるオープンソースのLLMの性能を向上させる新しいフレームワークであるLearNAT(AST誘導タスク分解によるNL2SQLの学習)を提案する。
LearNATは,(1)抽象構文木(AST)を利用してタスク分解のための効率的な探索・刈取戦略を導出する分解合成手法,(2)DPOとASTマージンを併用したきめ細かなステップレベルの最適化を利用するMargin-aware Reinforcement Learning,(3)適応的演示推論(Adaptive Demonstration Reasoning)の3つの重要なコンポーネントを紹介した。
SpiderとBIRDという2つのベンチマークデータセットに関する大規模な実験は、LearNATが7BパラメータのオープンソースLLMをGPT-4に匹敵するパフォーマンスを実現し、効率とアクセシビリティを改善したことを実証している。
関連論文リスト
- ROUTE: Robust Multitask Tuning and Collaboration for Text-to-SQL [42.019659095480726]
我々は,オープンソースのText2用LLMの包括的機能を改善するために,RObust mUltitask Tuning and collaboration mEthod (ROUTE)を提案する。
提案手法は,tosql生成に関する各種合成トレーニングデータを用いて,マルチタスク制御ファインチューニング(SFT)から始める。
また,マルチタスク・コラボレーション・プロンプティング(MCP)戦略を導入し,スクル生成時の幻覚を低減する。
論文 参考訳(メタデータ) (2024-12-13T13:41:18Z) - Can Long-Context Language Models Subsume Retrieval, RAG, SQL, and More? [54.667202878390526]
長文言語モデル(LCLM)は、従来、検索システムやデータベースといった外部ツールに依存していたタスクへのアプローチに革命をもたらす可能性がある。
実世界のタスクのベンチマークであるLOFTを導入し、文脈内検索と推論においてLCLMの性能を評価するために設計された数百万のトークンを出力する。
以上の結果からLCLMは,これらのタスクを明示的に訓練したことがないにも関わらず,最先端の検索システムやRAGシステムと競合する驚くべき能力を示した。
論文 参考訳(メタデータ) (2024-06-19T00:28:58Z) - DeTriever: Decoder-representation-based Retriever for Improving NL2SQL In-Context Learning [19.93800175353809]
DeTrieverは、隠れた状態の重み付けを学習する新しいデモ検索フレームワークである。
提案手法は1ショットNL2タスクにおける最先端のベースラインを大幅に上回る。
論文 参考訳(メタデータ) (2024-06-12T06:33:54Z) - CRE-LLM: A Domain-Specific Chinese Relation Extraction Framework with Fine-tuned Large Language Model [1.9950682531209156]
ドメイン特化中国語関係抽出(DSCRE)は、ドメイン特化中国語テキストからエンティティ間の関係を抽出することを目的としている。
自然言語処理における大規模言語モデル(LLM)の優れた性能を考えると、CRE-LLMと呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-28T06:27:15Z) - PURPLE: Making a Large Language Model a Better SQL Writer [14.627323505405327]
NL2タスクに必要な論理演算子構成を含む実演を検索することで精度を向上させるPURPLEを提案する。
PURPLEは、一般的なNL2ベンチマークの検証セット上で80.5%の正確な一致精度と87.8%の実行一致精度という、最先端の新たなパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-03-29T07:01:29Z) - From Summary to Action: Enhancing Large Language Models for Complex
Tasks with Open World APIs [62.496139001509114]
大規模な現実世界のAPIを制御するために設計された新しいツール呼び出しパイプラインを導入します。
このパイプラインは人間のタスク解決プロセスを反映し、複雑な実際のユーザクエリに対処する。
ToolBenchベンチマークにおけるSum2Actパイプラインの実証的な評価は、大幅なパフォーマンス向上を示している。
論文 参考訳(メタデータ) (2024-02-28T08:42:23Z) - Decomposition for Enhancing Attention: Improving LLM-based Text-to-SQL through Workflow Paradigm [19.06214756792692]
大規模言語モデル(LLM)の文脈内学習は自然言語処理の分野で大きな成功を収めている。
ケーススタディでは、一段階のチェーン・オブ・シントアプローチが、テキスト・トゥ・コレクションのような複雑なタスクにおける注意拡散や不適切なパフォーマンスといった課題に直面していることが明らかになった。
分解によりLLMの注目度と問題解決範囲を高めることを目的としたワークフローパラダイムを提案する。
論文 参考訳(メタデータ) (2024-02-16T13:24:05Z) - kNN-ICL: Compositional Task-Oriented Parsing Generalization with Nearest
Neighbor In-Context Learning [50.40636157214161]
Task-Oriented Parsing (TOP)により、会話アシスタントは自然言語で表現されたユーザーコマンドを解釈できる。
LLMは、自然言語のプロンプトに基づいて、コンピュータプログラムにおいて印象的な性能を達成した。
本稿では,LLMのセマンティック解析機能を活用することに焦点を当てる。
論文 参考訳(メタデータ) (2023-12-17T17:26:50Z) - ADaPT: As-Needed Decomposition and Planning with Language Models [131.063805299796]
As-Needed Decomposition and Planning for Complex Tasks (ADaPT)について紹介する。
ADaPTは、Large Language Modelsがそれらを実行できない場合、複雑なサブタスクを明示的に計画し、分解する。
以上の結果から,ADaPTは強いベースラインを確立した。
論文 参考訳(メタデータ) (2023-11-08T17:59:15Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z) - Text-to-SQL Empowered by Large Language Models: A Benchmark Evaluation [76.76046657162306]
大規模言語モデル(LLM)はテキスト・ツー・タスクの新しいパラダイムとして登場した。
大規模言語モデル(LLM)はテキスト・ツー・タスクの新しいパラダイムとして登場した。
論文 参考訳(メタデータ) (2023-08-29T14:59:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。