論文の概要: LLM4Hint: Leveraging Large Language Models for Hint Recommendation in Offline Query Optimization
- arxiv url: http://arxiv.org/abs/2507.03384v1
- Date: Fri, 04 Jul 2025 08:32:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.710758
- Title: LLM4Hint: Leveraging Large Language Models for Hint Recommendation in Offline Query Optimization
- Title(参考訳): LLM4Hint:オフラインクエリ最適化におけるHintレコメンデーションのための大規模言語モデルの活用
- Authors: Suchen Liu, Jun Gao, Yinjun Han, Yang Lin,
- Abstract要約: 本稿では,学習句の一般化を促進するために,Large Language Model(LLM)をどのように組み込むかを検討する。
我々は,中規模のバックボーンLLMを利用してクエリ最適化ヒントを推奨する textbfLLM4Hint を提案する。
- 参考スコア(独自算出の注目度): 7.00597706249493
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Query optimization is essential for efficient SQL query execution in DBMS, and remains attractive over time due to the growth of data volumes and advances in hardware. Existing traditional optimizers struggle with the cumbersome hand-tuning required for complex workloads, and the learning-based methods face limitations in ensuring generalization. With the great success of Large Language Model (LLM) across diverse downstream tasks, this paper explores how LLMs can be incorporated to enhance the generalization of learned optimizers. Though promising, such an incorporation still presents challenges, mainly including high model inference latency, and the substantial fine-tuning cost and suboptimal performance due to inherent discrepancy between the token sequences in LLM and structured SQL execution plans with rich numerical features. In this paper, we focus on recurring queries in offline optimization to alleviate the issue of high inference latency, and propose \textbf{LLM4Hint} that leverages moderate-sized backbone LLMs to recommend query optimization hints. LLM4Hint achieves the goals through: (i) integrating a lightweight model to produce a soft prompt, which captures the data distribution in DBMS and the SQL predicates to provide sufficient optimization features while simultaneously reducing the context length fed to the LLM, (ii) devising a query rewriting strategy using a larger commercial LLM, so as to simplify SQL semantics for the backbone LLM and reduce fine-tuning costs, and (iii) introducing an explicit matching prompt to facilitate alignment between the LLM and the lightweight model, which can accelerate convergence of the combined model. Experiments show that LLM4Hint, by leveraging the LLM's stronger capability to understand the query statement, can outperform the state-of-the-art learned optimizers in terms of both effectiveness and generalization.
- Abstract(参考訳): クエリ最適化はDBMSでの効率的なSQLクエリ実行に不可欠であり、データボリュームの増加とハードウェアの進歩のために、時間とともに魅力的なままである。
既存のオプティマイザは、複雑なワークロードに必要な面倒な手作業に苦労する。
下流タスクにおけるLarge Language Model (LLM) の成功により,LLMを組み込んで学習オプティマイザの一般化を促進する方法について検討する。
有望ではあるが、このような統合は、主にモデル推論のレイテンシや、LLMのトークンシーケンスとリッチな数値的特徴を持つ構造化SQL実行計画との固有の相違による、大幅な微調整コストとサブ最適パフォーマンスなど、依然として課題を呈している。
本稿では、高推論レイテンシの問題を軽減するために、オフライン最適化における繰り返しクエリに焦点を当て、中程度のバックボーンLLMを利用してクエリ最適化ヒントを推奨する \textbf{LLM4Hint} を提案する。
LLM4Hintは、次の目標を達成する。
i)軽量モデルを統合してソフトプロンプトを生成し、DBMSとSQLでのデータ分散をキャプチャし、LLMに供給されるコンテキスト長を同時に削減しながら、十分な最適化機能を提供する。
i) バックボーンLLMのSQLセマンティクスを簡素化し、微調整コストを削減するため、より大きな商用LLMを使用してクエリ書き換え戦略を策定すること。
3) LLMと軽量モデルのアライメントを容易にするための明示的なマッチングプロンプトを導入することにより, 組み合わせモデルの収束を促進できる。
実験により、LLM4Hintは、LLMの強力な能力を利用してクエリステートメントを理解することにより、有効性と一般化の両方の観点から、最先端の学習オプティマイザより優れていることが示された。
関連論文リスト
- LLM-Symbolic Integration for Robust Temporal Tabular Reasoning [69.27153114778748]
本研究では,システムおよび制御された評価のための合成データセットであるTempTabQA-Cを紹介する。
この構造化アプローチにより、LLM(Large Language Models)はsqlクエリの生成と実行を可能にし、一般化とバイアス軽減の強化を行う。
論文 参考訳(メタデータ) (2025-06-06T05:14:04Z) - Iterative Self-Incentivization Empowers Large Language Models as Agentic Searchers [74.17516978246152]
大規模言語モデル(LLM)は、従来の手法を進化させるために情報検索に広く統合されている。
エージェント検索フレームワークであるEXSEARCHを提案する。
4つの知識集約ベンチマークの実験では、EXSEARCHはベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2025-05-26T15:27:55Z) - Optimizing LLM Inference for Database Systems: Cost-Aware Scheduling for Concurrent Requests [8.552242818726347]
本稿ではまず,LLM推論の性能を解析し,LLM推論におけるデータ管理の問題に焦点を当てる。
この問題の根底にあるのは、複数の同時推論要求を実行する際に、適切なリソースコストモデルと最適化戦略が欠如していることである。
論文 参考訳(メタデータ) (2024-11-12T00:10:34Z) - The Unreasonable Effectiveness of LLMs for Query Optimization [4.50924404547119]
クエリテキストの埋め込みには,クエリ最適化に有用な意味情報が含まれていることを示す。
少数の組込みクエリベクタで訓練された代替クエリプラン間の単純なバイナリが既存のシステムより優れていることを示す。
論文 参考訳(メタデータ) (2024-11-05T07:10:00Z) - QPO: Query-dependent Prompt Optimization via Multi-Loop Offline Reinforcement Learning [58.767866109043055]
クエリ依存型プロンプト最適化(QPO)を導入し、入力クエリに合わせて最適なプロンプトを生成するために、小さな事前訓練された言語モデルを反復的に微調整する。
我々は、オープンソースのタスクに様々なプロンプトをベンチマークする副産物として、すでに大量に存在するオフラインのプロンプトデータから洞察を得る。
様々なLLMスケールと多様なNLPおよび数学タスクの実験は、ゼロショットと少数ショットの両方のシナリオにおいて、我々の手法の有効性とコスト効率を実証している。
論文 参考訳(メタデータ) (2024-08-20T03:06:48Z) - SelectLLM: Query-Aware Efficient Selection Algorithm for Large Language Models [8.558834738072363]
大規模言語モデル(LLM)は、様々なアプリケーションにまたがる顕著な性能のために広く採用されている。
これらの個々のLCMは、固有のトレーニングバイアス、モデルサイズ制約、トレーニング前のデータセットの品質や多様性による、複雑なタスクの一般化とパフォーマンスの制限を示す。
本稿では,入力クエリをLLMの最も適切なサブセットに効率的に誘導するSelectLLMを紹介する。
論文 参考訳(メタデータ) (2024-08-16T06:11:21Z) - Optimizing LLM Queries in Relational Data Analytics Workloads [50.95919232839785]
バッチデータ分析は、Large Language Models(LLMs)の急成長するアプリケーションである
LLMは、分類、エンティティ抽出、翻訳などの幅広い自然言語タスクを、大規模なデータセット上で実行可能にする。
本稿では,LLMコールによるリレーショナルデータ解析処理のコストを大幅に削減できる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-03-09T07:01:44Z) - FederatedScope-LLM: A Comprehensive Package for Fine-tuning Large
Language Models in Federated Learning [70.38817963253034]
本稿では, ファインチューニング LLM のこれらの課題について論じ, 本パッケージ FS-LLM を主な貢献として紹介する。
我々は、FLシナリオにおける将来の拡張のために、包括的フェデレーションパラメータ効率の良い微調整アルゴリズムの実装と汎用プログラミングインタフェースを提供する。
本研究では, FS-LLM の有効性を検証し, FL 設定におけるパラメータ効率の高いパラメータ調整アルゴリズムを用いて, 高度な LLM のベンチマークを行う。
論文 参考訳(メタデータ) (2023-09-01T09:40:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。