論文の概要: JoinGym: An Efficient Query Optimization Environment for Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2307.11704v1
- Date: Fri, 21 Jul 2023 17:00:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-24 11:54:07.464836
- Title: JoinGym: An Efficient Query Optimization Environment for Reinforcement
Learning
- Title(参考訳): JoinGym:強化学習のための効率的なクエリ最適化環境
- Authors: Kaiwen Wang, Junxiong Wang, Yueying Li, Nathan Kallus, Immanuel
Trummer, Wen Sun
- Abstract要約: 強化学習(RL)のための効率的で軽量なクエリ最適化環境である textscJoinGym を提案する。
マルコフ決定過程 (MDP) として, JOS問題の各左深度および変種を定式化する方法を述べる。
また、IMDBデータセットから生成される3300ドルの新規クエリに対して、可能なすべてのジョイントレースも提供します。
- 参考スコア(独自算出の注目度): 53.69838562498811
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present \textsc{JoinGym}, an efficient and lightweight
query optimization environment for reinforcement learning (RL). Join order
selection (JOS) is a classic NP-hard combinatorial optimization problem from
database query optimization and can serve as a practical testbed for the
generalization capabilities of RL algorithms. We describe how to formulate each
of the left-deep and bushy variants of the JOS problem as a Markov Decision
Process (MDP), and we provide an implementation adhering to the standard
Gymnasium API. We highlight that our implementation \textsc{JoinGym} is
completely based on offline traces of all possible joins, which enables RL
practitioners to easily and quickly test their methods on a realistic data
management problem without needing to setup any systems. Moreover, we also
provide all possible join traces on $3300$ novel SQL queries generated from the
IMDB dataset. Upon benchmarking popular RL algorithms, we find that at least
one method can obtain near-optimal performance on train-set queries but their
performance degrades by several orders of magnitude on test-set queries. This
gap motivates further research for RL algorithms that generalize well in
multi-task combinatorial optimization problems.
- Abstract(参考訳): 本稿では、強化学習(RL)のための効率的で軽量なクエリ最適化環境であるtextsc{JoinGym}を提案する。
結合順序選択(JOS)は、データベースクエリ最適化から古典的なNPハード組合せ最適化問題であり、RLアルゴリズムの一般化のための実用的なテストベッドとして機能する。
本稿では,JOS 問題における各左深度およびブッシーな変形を Markov Decision Process (MDP) として定式化し,標準の Gymnasium API に準拠した実装を提供する。
実装 \textsc{JoinGym} は、すべての可能な結合のオフライントレースを完全にベースとしており、RL の実践者は、システムをセットアップすることなく、現実的なデータ管理問題でメソッドを簡単かつ迅速にテストできる。
さらに、IMDBデータセットから生成される3300ドルの新しいSQLクエリに対して、可能なすべてのジョイントレースも提供します。
一般的なRLアルゴリズムをベンチマークすると、少なくとも1つの手法が列車セットクエリでほぼ最適性能を得ることができるが、その性能はテストセットクエリで数桁低下する。
このギャップは、マルチタスク組合せ最適化問題においてよく一般化されるRLアルゴリズムのさらなる研究を動機付けている。
関連論文リスト
- GenJoin: Conditional Generative Plan-to-Plan Query Optimizer that Learns from Subplan Hints [1.3108652488669732]
我々は,クエリ最適化問題を共生生成タスクとして考える,新しい学習クエリであるGenJoinを提案する。
GenJoinは、よく知られた2つの実世界のベンチマークの最先端メソッドと同様に、大きく、一貫してパフォーマンスを向上する最初の学習クエリである。
論文 参考訳(メタデータ) (2024-11-07T08:31:01Z) - The Unreasonable Effectiveness of LLMs for Query Optimization [4.50924404547119]
クエリテキストの埋め込みには,クエリ最適化に有用な意味情報が含まれていることを示す。
少数の組込みクエリベクタで訓練された代替クエリプラン間の単純なバイナリが既存のシステムより優れていることを示す。
論文 参考訳(メタデータ) (2024-11-05T07:10:00Z) - Training Greedy Policy for Proposal Batch Selection in Expensive Multi-Objective Combinatorial Optimization [52.80408805368928]
本稿では,バッチ取得のための新しいグリーディ型サブセット選択アルゴリズムを提案する。
赤蛍光タンパク質に関する実験により,提案手法は1.69倍少ないクエリでベースライン性能を達成できることが判明した。
論文 参考訳(メタデータ) (2024-06-21T05:57:08Z) - Reinforcement Learning from Human Feedback with Active Queries [67.27150911254155]
現在の強化学習アプローチは、多くの場合、大量の人間による嗜好データを必要とする。
本稿では,能動学習の成功に触発されたクエリ効率の高いRLHF手法を提案する。
実験の結果,ADPOは人間の好みに対するクエリの約半分しか作成していないが,最先端のDPO法の性能と一致していることがわかった。
論文 参考訳(メタデータ) (2024-02-14T18:58:40Z) - Roq: Robust Query Optimization Based on a Risk-aware Learned Cost Model [3.0784574277021406]
本稿では,リスク認識型学習アプローチに基づくロバストなクエリ最適化を実現するための包括的フレームワークを提案する。
Roqには、クエリ最適化の文脈におけるロバストネスの概念の新たな形式化が含まれている。
我々は、Roqが最先端技術と比較して堅牢なクエリ最適化に大幅な改善をもたらすことを実験的に実証した。
論文 参考訳(メタデータ) (2024-01-26T21:16:37Z) - Kepler: Robust Learning for Faster Parametric Query Optimization [5.6119420695093245]
パラメトリッククエリ最適化のためのエンドツーエンドの学習ベースアプローチを提案する。
Keplerは、複数のデータセット上でのクエリランタイムの大幅な改善を実現している。
論文 参考訳(メタデータ) (2023-06-11T22:39:28Z) - Lero: A Learning-to-Rank Query Optimizer [49.841082217997354]
これは、ネイティブクエリの上に構築され、クエリ最適化を改善するために継続的に学習される。
Leroはスクラッチから学習を構築するのではなく、数十年にわたるデータベースの知恵を活用し、ネイティブ性を改善するように設計されている。
Leroはいくつかのベンチマークでほぼ最適なパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-02-14T07:31:11Z) - How to Query An Oracle? Efficient Strategies to Label Data [59.89900843097016]
機械学習におけるデータセットのラベル付けに専門家の託宣を照会する際の基本的な問題について考察する。
本稿では,サンプルをラベル付けするために,ラウンド・バイ・ラウンドでランダム化されたバッチアルゴリズムを提案し,クエリレートが$O(fracNk2)$であることを示す。
さらに,適応型グリージークエリ方式を提案し,三重項クエリを用いたサンプルあたり平均$approx 0.2N$クエリを実現する。
論文 参考訳(メタデータ) (2021-10-05T20:15:35Z) - Bayesian Algorithm Execution: Estimating Computable Properties of
Black-box Functions Using Mutual Information [78.78486761923855]
多くの現実世界では、T関数の評価の予算を考えると、高価なブラックボックス関数 f の性質を推測したい。
本稿では,アルゴリズムの出力に対して相互情報を最大化するクエリを逐次選択する手法InfoBAXを提案する。
これらの問題に対してInfoBAXは、元のアルゴリズムで要求されるより500倍少ないクエリをfに使用する。
論文 参考訳(メタデータ) (2021-04-19T17:22:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。