論文の概要: Balsa: Learning a Query Optimizer Without Expert Demonstrations
- arxiv url: http://arxiv.org/abs/2201.01441v1
- Date: Wed, 5 Jan 2022 03:59:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-06 14:34:50.857368
- Title: Balsa: Learning a Query Optimizer Without Expert Demonstrations
- Title(参考訳): balsa: エキスパートデモなしでクエリオプティマイザを学ぶ
- Authors: Zongheng Yang, Wei-Lin Chiang, Sifei Luan, Gautam Mittal, Michael Luo,
Ion Stoica
- Abstract要約: 私たちは、深い強化学習によって構築されたクエリであるBalsaを紹介します。
専門家から学ぶことなくクエリを最適化する学習は可能かつ効率的であることを示す。
- 参考スコア(独自算出の注目度): 18.434140044005844
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Query optimizers are a performance-critical component in every database
system. Due to their complexity, optimizers take experts months to write and
years to refine. In this work, we demonstrate for the first time that learning
to optimize queries without learning from an expert optimizer is both possible
and efficient. We present Balsa, a query optimizer built by deep reinforcement
learning. Balsa first learns basic knowledge from a simple,
environment-agnostic simulator, followed by safe learning in real execution. On
the Join Order Benchmark, Balsa matches the performance of two expert query
optimizers, both open-source and commercial, with two hours of learning, and
outperforms them by up to 2.8$\times$ in workload runtime after a few more
hours. Balsa thus opens the possibility of automatically learning to optimize
in future compute environments where expert-designed optimizers do not exist.
- Abstract(参考訳): クエリオプティマイザは、すべてのデータベースシステムにおけるパフォーマンスクリティカルなコンポーネントである。
その複雑さのため、オプティマイザは専門家が書くのに数ヶ月、洗練するのに何年もかかります。
本研究では,エキスパートオプティマイザから学ぶことなく,クエリを最適化する学習が可能かつ効率的であることを初めて実証する。
深層強化学習によって構築されたクエリオプティマイザであるbalsaを提案する。
Balsa氏はまず、シンプルな環境に依存しないシミュレータから基本的な知識を学び、続いて実行時に安全な学習を行う。
Join Order Benchmarkでは、Balsaはオープンソースと商用の2つの専門家クエリオプティマイザのパフォーマンスを2時間の学習で比較し、さらに数時間後にワークロードランタイムで最大2.8$\times$をパフォーマンスで上回る。
このようにbalsaは、エキスパートが設計したオプティマイザが存在しない未来の計算環境において、自動的に学習して最適化する可能性を開く。
関連論文リスト
- The Unreasonable Effectiveness of LLMs for Query Optimization [4.50924404547119]
クエリテキストの埋め込みには,クエリ最適化に有用な意味情報が含まれていることを示す。
少数の組込みクエリベクタで訓練された代替クエリプラン間の単純なバイナリが既存のシステムより優れていることを示す。
論文 参考訳(メタデータ) (2024-11-05T07:10:00Z) - FOSS: A Self-Learned Doctor for Query Optimizer [19.15262900354963]
FOSSと呼ばれる深層強化学習に基づくクエリ最適化のための新しいフレームワークを提案する。
Fossは従来のブートストラップによって生成された当初の計画から最適化を開始し、計画の最適下ノードを漸進的に洗練する。
結合順序ベンチマーク, TPC-DS, Stack OverflowベンチマークにおけるFOSSの性能評価を行った。
論文 参考訳(メタデータ) (2023-12-11T13:05:51Z) - Lero: A Learning-to-Rank Query Optimizer [49.841082217997354]
これは、ネイティブクエリの上に構築され、クエリ最適化を改善するために継続的に学習される。
Leroはスクラッチから学習を構築するのではなく、数十年にわたるデータベースの知恵を活用し、ネイティブ性を改善するように設計されている。
Leroはいくつかのベンチマークでほぼ最適なパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-02-14T07:31:11Z) - Learning to Optimize for Reinforcement Learning [58.01132862590378]
強化学習(Reinforcement Learning, RL)は、教師付き学習とは本質的に異なり、実際、これらの学習は単純なRLタスクでもうまく機能しない。
エージェント勾配分布は非独立で同一分布であり、非効率なメタトレーニングをもたらす。
おもちゃのタスクでしか訓練されていないが、我々の学習はブラックスの目に見えない複雑なタスクを一般化できることを示した。
論文 参考訳(メタデータ) (2023-02-03T00:11:02Z) - VeLO: Training Versatile Learned Optimizers by Scaling Up [67.90237498659397]
私たちは、ディープラーニングの成功の背後にある同じスケーリングアプローチを活用して、汎用性を学びます。
私たちは、パラメータの更新を取り込み出力する小さなニューラルネットワークであるディープラーニングのためのインジェクションをトレーニングします。
学習したメタトレーニングコード、関連するトレインテストデータ、およびvelo-code.ioのベースラインを備えた広範なベンチマークスイートをオープンソースとして公開しています。
論文 参考訳(メタデータ) (2022-11-17T18:39:07Z) - Training Learned Optimizers with Randomly Initialized Learned Optimizers [49.67678615506608]
ランダムに学習した人の集団は、オンラインの方法でゼロから学習することができる。
人口ベーストレーニングの形式は、この自己学習の組織化に使用される。
このタイプのフィードバックループは、機械学習の将来において重要かつ強力なものになると思います。
論文 参考訳(メタデータ) (2021-01-14T19:07:17Z) - Reverse engineering learned optimizers reveals known and novel
mechanisms [50.50540910474342]
学習は最適化問題を解決するために自らを訓練できるアルゴリズムである。
実験の結果は,学習の動作方法に関するそれまでの曖昧な理解を解明し,今後の学習を解釈するためのツールを確立するのに役立つ。
論文 参考訳(メタデータ) (2020-11-04T07:12:43Z) - Tasks, stability, architecture, and compute: Training more effective
learned optimizers, and using them to train themselves [53.37905268850274]
我々は、自動正規化を実現するために、バリデーション損失などの追加機能にアクセス可能な、階層的で階層的なニューラルネットワークパラメータ化を導入した。
ほとんどの学習は単一のタスク、あるいは少数のタスクでトレーニングされています。
何千ものタスクをトレーニングし、桁違いに計算量を増やし、その結果、目に見えないタスクよりも優れたパフォーマンスの一般化を実現します。
論文 参考訳(メタデータ) (2020-09-23T16:35:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。