論文の概要: Training-Free Query Optimization via LLM-Based Plan Similarity
- arxiv url: http://arxiv.org/abs/2506.05853v1
- Date: Fri, 06 Jun 2025 08:16:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.374857
- Title: Training-Free Query Optimization via LLM-Based Plan Similarity
- Title(参考訳): LLMに基づく計画類似性を利用した学習自由クエリ最適化
- Authors: Nikita Vasilenko, Alexander Demin, Vladimir Boorlakov,
- Abstract要約: LLM-PM (LLM-based Plan Mapping) は,クエリのデフォルト実行プランを埋め込んだフレームワークである。
JOB-CEBベンチマークで評価したところ、LLM-PMは平均21%のレイテンシ低減を実現している。
- 参考スコア(独自算出の注目度): 45.9982965995401
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language model (LLM) embeddings offer a promising new avenue for database query optimization. In this paper, we explore how pre-trained execution plan embeddings can guide SQL query execution without the need for additional model training. We introduce LLM-PM (LLM-based Plan Mapping), a framework that embeds the default execution plan of a query, finds its k nearest neighbors among previously executed plans, and recommends database hintsets based on neighborhood voting. A lightweight consistency check validates the selected hint, while a fallback mechanism searches the full hint space when needed. Evaluated on the JOB-CEB benchmark using OpenGauss, LLM-PM achieves an average speed-up of 21% query latency reduction. This work highlights the potential of LLM-powered embeddings to deliver practical improvements in query performance and opens new directions for training-free, embedding-based optimizer guidance systems.
- Abstract(参考訳): 大規模言語モデル(LLM)組み込みは、データベースクエリの最適化に期待できる新しい道を提供する。
本稿では,事前学習した実行プランの埋め込みが,追加のモデルトレーニングを必要とせずにSQLクエリの実行をガイドする方法について検討する。
LLM-PM (LLM-based Plan Mapping) は、クエリのデフォルト実行プランを埋め込んだフレームワークで、以前実行された計画の中で、そのkに近い隣人を見つけ、近隣の投票に基づいてデータベースのヒントセットを推奨する。
軽量な一貫性チェックが選択されたヒントを検証し、フォールバック機構が必要に応じて全ヒント空間を検索する。
OpenGauss を用いた JOB-CEB ベンチマークで評価すると,LLM-PM は平均21% のクエリ待ち時間削減を実現している。
この研究は、LLMによるクエリ性能の実用的な改善を実現するための埋め込みの可能性を強調し、トレーニング不要で埋め込みベースの最適化システムのための新しい方向性を開放する。
関連論文リスト
- Query-Efficient Planning with Language Models [8.136901056728945]
複雑な環境での計画では、エージェントがスタートからゴールまでの一連のアクションを見つけるために、ワールドモデルを効率的にクエリする必要がある。
最近の研究によると、Large Language Models(LLM)は、将来有望な状態を探索し、世界からのフィードバックに適応することによって、計画に役立つ可能性がある。
両アプローチが同等のベースラインで改善されているのに対して,LLMを生成プランナーとして使用すると,相互作用が大幅に減少することを示す。
論文 参考訳(メタデータ) (2024-12-09T02:51:21Z) - The Unreasonable Effectiveness of LLMs for Query Optimization [4.50924404547119]
クエリテキストの埋め込みには,クエリ最適化に有用な意味情報が含まれていることを示す。
少数の組込みクエリベクタで訓練された代替クエリプラン間の単純なバイナリが既存のシステムより優れていることを示す。
論文 参考訳(メタデータ) (2024-11-05T07:10:00Z) - DocETL: Agentic Query Rewriting and Evaluation for Complex Document Processing [10.712756715779822]
大規模言語モデル(LLM)は、データ処理において有望であることを示している。
これらのフレームワークは、ユーザが指定した操作を実行する際のコスト削減に重点を置いている。
これは複雑なタスクやデータに問題があります。
本稿では,複雑な文書処理パイプラインを最適化するDocETLを提案する。
論文 参考訳(メタデータ) (2024-10-16T03:22:35Z) - Exploring and Benchmarking the Planning Capabilities of Large Language Models [57.23454975238014]
この研究は、大規模言語モデル(LLM)の計画能力を改善するための基礎を築いた。
我々は、古典的な計画ベンチマークと自然言語シナリオの両方を含む包括的なベンチマークスイートを構築した。
本研究は,LLM計画の強化を目的としたマルチショットインコンテキスト学習について検討し,文脈長の増大と計画性能の向上の関係について検討する。
論文 参考訳(メタデータ) (2024-06-18T22:57:06Z) - TableLLM: Enabling Tabular Data Manipulation by LLMs in Real Office Usage Scenarios [51.66718740300016]
TableLLMは80億のパラメータを持つ堅牢な大規模言語モデル(LLM)である。
TableLLMはデータ操作タスクを巧みに扱うために構築されている。
我々は、ユーザインタラクションのためのモデルチェックポイント、ソースコード、ベンチマーク、Webアプリケーションをリリースした。
論文 参考訳(メタデータ) (2024-03-28T11:21:12Z) - No more optimization rules: LLM-enabled policy-based multi-modal query optimizer [9.370719876854228]
大規模言語モデル(LLM)は、機械学習とディープラーニングの分野で重要な瞬間となっている。
本稿では,LLM のクエリ最適化能力について検討し,新しい LLM とポリシーに基づくマルチモーダルクエリである LaPuda を設計する。
論文 参考訳(メタデータ) (2024-03-20T13:44:30Z) - JoinGym: An Efficient Query Optimization Environment for Reinforcement
Learning [58.71541261221863]
結合順序選択(JOS)は、クエリの実行コストを最小化するために結合操作を順序付けする問題である。
木質強化学習(RL)のためのクエリ最適化環境JoinGymを提案する。
JoinGymは内部で、事前計算されたデータセットから中間結果の濃度を調べることで、クエリプランのコストをシミュレートする。
論文 参考訳(メタデータ) (2023-07-21T17:00:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。