論文の概要: Distill-C: Enhanced NL2SQL via Distilled Customization with LLMs
- arxiv url: http://arxiv.org/abs/2504.00048v1
- Date: Sun, 30 Mar 2025 23:23:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 15:43:08.439526
- Title: Distill-C: Enhanced NL2SQL via Distilled Customization with LLMs
- Title(参考訳): Distill-C: LLMによる拡張NL2SQLのカスタマイズ
- Authors: Cong Duy Vu Hoang, Gioacchino Tangari, Clemence Lanfranchi, Dalu Guo, Paul Cayet, Steve Siu, Don Dharmasiri, Yuan-Fang Li, Long Duong, Damien Hilloulin, Rhicheek Patra, Sungpack Hong, Hassan Chafi,
- Abstract要約: NL2タスク用にカスタマイズされたフレームワークであるDistill-Cを紹介する。
これらの結果から,Distill-Cは軽量で強力なNL2モデルをデプロイする上で,効果的で高性能で一般化可能なアプローチであることが示された。
- 参考スコア(独自算出の注目度): 12.950563942566498
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The growing adoption of large language models (LLMs) in business applications has amplified interest in Natural Language to SQL (NL2SQL) solutions, in which there is competing demand for high performance and efficiency. Domain- and customer-specific requirements further complicate the problem. To address this conundrum, we introduce Distill-C, a distilled customization framework tailored for NL2SQL tasks. Distill-C utilizes large teacher LLMs to produce high-quality synthetic data through a robust and scalable pipeline. Finetuning smaller and open-source LLMs on this synthesized data enables them to rival or outperform teacher models an order of magnitude larger. Evaluated on multiple challenging benchmarks, Distill-C achieves an average improvement of 36% in execution accuracy compared to the base models from three distinct LLM families. Additionally, on three internal customer benchmarks, Distill-C demonstrates a 22.6% performance improvement over the base models. Our results demonstrate that Distill-C is an effective, high-performing and generalizable approach for deploying lightweight yet powerful NL2SQL models, delivering exceptional accuracies while maintaining low computational cost.
- Abstract(参考訳): ビジネスアプリケーションにおける大規模言語モデル(LLM)の採用の増加は、ハイパフォーマンスと効率の要求が競合するNL2SQL(Natural Language to SQL)ソリューションへの関心を増幅している。
ドメイン固有の要求と顧客固有の要求が問題をさらに複雑にします。
この問題に対処するため,NL2SQLタスクに適した蒸留カスタマイズフレームワークであるDistill-Cを紹介した。
Distill-Cは大規模なLLMを使用して、堅牢でスケーラブルなパイプラインを通じて高品質な合成データを生成する。
この合成データに基づいて、小型でオープンソースのLCMを微調整することで、教師モデルに匹敵したり、性能を誇張したりすることができる。
複数の挑戦的なベンチマークに基づいて評価したDistill-Cは、3つの異なるLLMファミリーのベースモデルと比較して平均36%の実行精度の向上を実現している。
さらに、3つの内部顧客ベンチマークでは、Distill-Cはベースモデルよりも22.6%パフォーマンスが改善されている。
これらの結果から,Distill-Cは軽量かつパワフルなNL2SQLモデルをデプロイし,計算コストを低く抑えながら異常な精度を実現するための,効果的で高性能かつ汎用的なアプローチであることが示唆された。
関連論文リスト
- LearNAT: Learning NL2SQL with AST-guided Task Decomposition for Large Language Models [28.17495423015754]
複雑なNL2タスクにおいて,タスク分解と強化学習により,LLM(Large Language Models)の性能を向上させる新しいフレームワークを提案する。
LearNATはGPT-4に匹敵する性能を実現し、効率とアクセシビリティを向上させる。
論文 参考訳(メタデータ) (2025-04-03T06:59:44Z) - Federated Fine-Tuning of LLMs: Framework Comparison and Research Directions [59.5243730853157]
Federated Learning(FL)は、分散プライベートデータセットを使用して、トレーニング済みの大規模言語モデル(LLM)を微調整するための、プライバシ保護ソリューションを提供する。
本稿では、知識蒸留(KD)とスプリットラーニング(SL)を統合し、これらの問題を緩和する3つの先進的連合LLM(FedLLM)フレームワークの比較分析を行う。
論文 参考訳(メタデータ) (2025-01-08T11:37:06Z) - Less is More: Towards Green Code Large Language Models via Unified Structural Pruning [27.428983811427827]
語彙, 層, フィードフォワードネットワーク(FFN)プルーニングを組み合わせた, 革新的な統一的構造解析手法であるFlap-Prunerを提案する。
その結果、Flap-Prunerはパラメータの22%をプルーニングした後、元のパフォーマンスの97%を維持し、トレーニング後と同じあるいはそれ以上のパフォーマンスを達成していることがわかった。
論文 参考訳(メタデータ) (2024-12-20T14:13:09Z) - Adaptive Pruning for Large Language Models with Structural Importance Awareness [66.2690963378878]
大規模言語モデル(LLM)は言語理解と生成能力を大幅に改善した。
LLMは、高い計算およびストレージリソース要求のため、リソース制約のあるエッジデバイスにデプロイするのは難しい。
モデル性能を維持しつつ,計算コストとメモリコストを大幅に削減する構造的適応型プルーニング(SAAP)を提案する。
論文 参考訳(メタデータ) (2024-12-19T18:08:04Z) - Star-Agents: Automatic Data Optimization with LLM Agents for Instruction Tuning [71.2981957820888]
本稿では,データセット間のデータ品質向上を自動化する新しいStar-Agentsフレームワークを提案する。
このフレームワークは最初,複数のLDMエージェントを用いた多様なインストラクションデータを生成する。
生成したデータは、難易度と品質の両方を評価する二重モデル法を用いて厳密な評価を行う。
論文 参考訳(メタデータ) (2024-11-21T02:30:53Z) - LLM2LLM: Boosting LLMs with Novel Iterative Data Enhancement [79.31084387589968]
事前訓練された大規模言語モデル(LLM)は、現在、自然言語処理タスクの大部分を解決するための最先端技術である。
LLM2LLMは、教師のLLMを使って小さなシードデータセットを強化するデータ拡張戦略である。
GSM8Kデータセットでは最大24.2%、CaseHOLDでは32.6%、SNIPSでは32.0%、TRECでは52.6%、SST-2では39.8%の改善が達成された。
論文 参考訳(メタデータ) (2024-03-22T08:57:07Z) - DTS-SQL: Decomposed Text-to-SQL with Small Large Language Models [7.388002745070808]
本稿では,タスクを2つの単純なタスクに分解する,新しい2段階の微調整手法を提案する。
このアプローチは実行精度を3~7%向上させる。
論文 参考訳(メタデータ) (2024-02-02T03:21:00Z) - LLM-Assisted Code Cleaning For Training Accurate Code Generators [53.087019724256606]
コードの品質を調査した結果,より構造化され,読みやすくなれば,コード生成性能が向上することがわかった。
私たちは、これらの原則を使って既存のプログラムを変換する、新しいデータクリーニングパイプラインを構築します。
提案手法を2つのアルゴリズムコード生成ベンチマークで評価した結果,微調整のCodeLLaMa-7Bでは,元のデータセットの微調整に比べて最大30%性能が向上していることがわかった。
論文 参考訳(メタデータ) (2023-11-25T02:45:50Z) - Effective Distillation of Table-based Reasoning Ability from LLMs [23.35522261002175]
大規模言語モデル(LLM)は、幅広い自然言語処理タスクにおいて顕著な性能を示している。
その膨大なパラメータサイズと計算能力に対する非常に高い要求は、その実践的な展開に挑戦する。
近年の研究では、LLMの特定の機能、例えば数値的推論は蒸留によってより小さなモデルに移行できることが明らかになっている。
論文 参考訳(メタデータ) (2023-09-22T21:15:28Z) - From Quantity to Quality: Boosting LLM Performance with Self-Guided Data Selection for Instruction Tuning [52.257422715393574]
本稿では,Large Language Models (LLMs) の自己誘導手法を導入し,オープンソースデータセットからサクラサンプルを自動識別し,選択する。
我々の重要な革新である命令追従困難度(IFD)メトリックは、モデルが期待する応答と本質的な生成能力の相違を識別するための重要な指標として現れます。
論文 参考訳(メタデータ) (2023-08-23T09:45:29Z) - LLM-Pruner: On the Structural Pruning of Large Language Models [65.02607075556742]
大規模言語モデル(LLM)は、言語理解と生成において顕著な能力を示している。
タスク非依存であり、元のトレーニングデータセットへの依存を最小限に抑えるという2つの制約の範囲内でLLMの圧縮に取り組む。
LLM-Prunerという名前のこの手法は、非臨界結合構造を選択的に除去する構造プルーニングを採用する。
論文 参考訳(メタデータ) (2023-05-19T12:10:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。