論文の概要: Making Databases Faster with LLM Evolutionary Sampling
- arxiv url: http://arxiv.org/abs/2602.10387v1
- Date: Wed, 11 Feb 2026 00:21:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.354686
- Title: Making Databases Faster with LLM Evolutionary Sampling
- Title(参考訳): LLM進化サンプリングによるデータベースの高速化
- Authors: Mehmet Hamza Erol, Xiangpeng Hao, Federico Bianchi, Ciro Greco, Jacopo Tagliabue, James Zou,
- Abstract要約: 従来のクエリ最適化は、実行コストを見積もるコストベースのモデルに依存している。
私たちは、DataFusionエンジンにDBPlanハーネスを使用して、適用および実行可能なローカライズされた編集を提案します。
次に、これらの編集に対して進化的検索を適用して、繰り返しにまたがって候補を洗練します。
いくつかのクエリで最大4.78$times$のスピードアップを得ます。
- 参考スコア(独自算出の注目度): 27.62392938968789
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional query optimization relies on cost-based optimizers that estimate execution cost (e.g., runtime, memory, and I/O) using predefined heuristics and statistical models. Improving these heuristics requires substantial engineering effort, and even when implemented, these heuristics often cannot take into account semantic correlations in queries and schemas that could enable better physical plans. Using our DBPlanBench harness for the DataFusion engine, we expose the physical plan through a compact serialized representation and let the LLM propose localized edits that can be applied and executed. We then apply an evolutionary search over these edits to refine candidates across iterations. Our key insight is that LLMs can leverage semantic knowledge to identify and apply non-obvious optimizations, such as join orderings that minimize intermediate cardinalities. We obtain up to 4.78$\times$ speedups on some queries and we demonstrate a small-to-large workflow in which optimizations found on small databases transfer effectively to larger databases.
- Abstract(参考訳): 従来のクエリ最適化は、事前に定義されたヒューリスティックスと統計モデルを使用して実行コスト(例えば、ランタイム、メモリ、I/O)を見積もるコストベースのオプティマイザに依存している。
これらのヒューリスティックスを改善するには相当なエンジニアリングの努力が必要だが、実装されても、より優れた物理計画を可能にするクエリやスキーマのセマンティックな相関を考慮に入れられないことが多い。
DataFusionエンジンのDBPlanBenchハーネスを使用して、コンパクトなシリアライズされた表現を通じて物理プランを公開し、LLMが適用および実行可能なローカライズされた編集を提案する。
次に、これらの編集に対して進化的検索を適用して、繰り返しにまたがって候補を洗練します。
我々の重要な洞察は、LLMが意味的知識を活用して、中間濃度を最小化する結合順序付けなど、不可避でない最適化を特定および適用できるということである。
我々は、いくつかのクエリで最大4.78$\times$のスピードアップを取得し、小さなデータベースで見つかる最適化を大規模データベースに効果的に転送する、小規模から大規模のワークフローを実演する。
関連論文リスト
- The Chicken and Egg Dilemma: Co-optimizing Data and Model Configurations for LLMs [86.27977008139435]
JoBSは、ベイジアン最適化を支援するために、スケーリング法則にインスパイアされたパフォーマンス予測器を使用するアプローチである。
JoBSの平均的後悔を調査し、後悔を最小限に抑えるために最適な予算配分を考案する。
論文 参考訳(メタデータ) (2026-02-09T07:33:40Z) - Rethinking On-policy Optimization for Query Augmentation [49.87723664806526]
本稿では,様々なベンチマークにおいて,プロンプトベースとRLベースのクエリ拡張の最初の体系的比較を示す。
そこで我々は,検索性能を最大化する擬似文書の生成を学習する,新しいハイブリッド手法 On-policy Pseudo-document Query Expansion (OPQE) を提案する。
論文 参考訳(メタデータ) (2025-10-20T04:16:28Z) - SmartLLMs Scheduler: A Framework for Cost-Effective LLMs Utilization [9.615876932810126]
大規模言語モデル(LLM)は、様々なソフトウェアエンジニアリングタスクにおいて顕著な機能を示している。
多様なタスクにLLMをデプロイするための既存の最適化戦略は、静的スケジューリングに重点を置いている。
本稿では,動的かつ費用対効果の高いスケジューリングソリューションであるSmartLLMs Scheduler (SLS)を提案する。
論文 参考訳(メタデータ) (2025-08-05T09:35:52Z) - The Case for Instance-Optimized LLMs in OLAP Databases [0.7090165638014332]
大規模言語モデル(LLM)は、強力なデータ要約、クリーニング、セマンティックトランスフォーメーション機能を備えた分析システムを強化することができる。
IOLMDB は,クエリ固有モデル最適化により LLM 拡張データベースクエリを実用的なものにする新しいシステムである。
論文 参考訳(メタデータ) (2025-07-07T13:10:01Z) - LLM4Hint: Leveraging Large Language Models for Hint Recommendation in Offline Query Optimization [7.00597706249493]
本稿では,学習句の一般化を促進するために,Large Language Model(LLM)をどのように組み込むかを検討する。
我々は,中規模のバックボーンLLMを利用してクエリ最適化ヒントを推奨する textbfLLM4Hint を提案する。
論文 参考訳(メタデータ) (2025-07-04T08:32:17Z) - Cost-Optimal Grouped-Query Attention for Long-Context Modeling [45.981681856747365]
Grouped-Query Attention(GQA)は、大規模言語モデルにおける注目層の計算コストを削減するための広く採用されている戦略である。
我々は,文脈長,モデルサイズ,GQA構成,モデル損失の関係を分析する。
コスト最適GQA構成の導出法を提案する。
論文 参考訳(メタデータ) (2025-03-12T17:50:42Z) - LLM Program Optimization via Retrieval Augmented Search [71.40092732256252]
提案手法は,提案手法によって最適化されたビーム探索を行う検索アルゴリズムであるRetrieval Augmented Search (RAS) である。
我々は、RASが従来の最先端のブラックボックス適応戦略よりも1.8$times$パフォーマンスが高いことを示す。
また、トレーニング例を「アトミックな編集」に分解することで、解釈可能性を向上させるAEGISと呼ばれる手法を提案する。
論文 参考訳(メタデータ) (2025-01-31T06:34:47Z) - Faster LLM Inference using DBMS-Inspired Preemption and Cache Replacement Policies [9.92327835631428]
本稿ではまず, LLM推論の性能を分析し, LLM推論におけるデータ管理の問題に焦点をあてる。
スケジューリングシステムには,要求のスケジューリングに十分なリソースコストモデルと最適化戦略が欠如していることが判明した。
我々は,LLM推論に適した並列推論要求のコストモデルと新しいキャッシュ置換ポリシーを構築することで,古典的なデータベース手法を適用した。
論文 参考訳(メタデータ) (2024-11-12T00:10:34Z) - The Unreasonable Effectiveness of LLMs for Query Optimization [4.50924404547119]
クエリテキストの埋め込みには,クエリ最適化に有用な意味情報が含まれていることを示す。
少数の組込みクエリベクタで訓練された代替クエリプラン間の単純なバイナリが既存のシステムより優れていることを示す。
論文 参考訳(メタデータ) (2024-11-05T07:10:00Z) - Optimizing LLM Queries in Relational Data Analytics Workloads [50.95919232839785]
バッチデータ分析は、Large Language Models(LLMs)の急成長するアプリケーションである
LLMは、分類、エンティティ抽出、翻訳などの幅広い自然言語タスクを、大規模なデータセット上で実行可能にする。
本稿では,LLMコールによるリレーショナルデータ解析処理のコストを大幅に削減できる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-03-09T07:01:44Z) - JoinGym: An Efficient Query Optimization Environment for Reinforcement
Learning [58.71541261221863]
結合順序選択(JOS)は、クエリの実行コストを最小化するために結合操作を順序付けする問題である。
木質強化学習(RL)のためのクエリ最適化環境JoinGymを提案する。
JoinGymは内部で、事前計算されたデータセットから中間結果の濃度を調べることで、クエリプランのコストをシミュレートする。
論文 参考訳(メタデータ) (2023-07-21T17:00:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。