論文の概要: AutoIndexer: A Reinforcement Learning-Enhanced Index Advisor Towards Scaling Workloads
- arxiv url: http://arxiv.org/abs/2507.23084v1
- Date: Wed, 30 Jul 2025 20:38:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-01 17:19:08.715194
- Title: AutoIndexer: A Reinforcement Learning-Enhanced Index Advisor Towards Scaling Workloads
- Title(参考訳): AutoIndexer: ワークロードのスケールアップを目指す強化学習強化インデックスアドバイザ
- Authors: Taiyi Wang, Eiko Yoneki,
- Abstract要約: AutoIndexerは、ワークロード圧縮、クエリ最適化、特殊RLモデルを組み合わせてインデックス選択を効果的にスケールするフレームワークである。
インデックスの品質を犠牲にすることなく、検索の複雑さを大幅に低下させる。
平均すると、最先端のRLベースのインデックスアドバイザを約20%のコスト削減で上回ります。
- 参考スコア(独自算出の注目度): 0.46040036610482665
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Efficiently selecting indexes is fundamental to database performance optimization, particularly for systems handling large-scale analytical workloads. While deep reinforcement learning (DRL) has shown promise in automating index selection through its ability to learn from experience, few works address how these RL-based index advisors can adapt to scaling workloads due to exponentially growing action spaces and heavy trial and error. To address these challenges, we introduce AutoIndexer, a framework that combines workload compression, query optimization, and specialized RL models to scale index selection effectively. By operating on compressed workloads, AutoIndexer substantially lowers search complexity without sacrificing much index quality. Extensive evaluations show that it reduces end-to-end query execution time by up to 95% versus non-indexed baselines. On average, it outperforms state-of-the-art RL-based index advisors by approximately 20% in workload cost savings while cutting tuning time by over 50%. These results affirm AutoIndexer's practicality for large and diverse workloads.
- Abstract(参考訳): インデックスの効率的な選択は、特に大規模分析ワークロードを扱うシステムにおいて、データベースのパフォーマンス最適化に不可欠である。
深層強化学習(DRL)は、経験から学ぶ能力を通じてインデックス選択を自動化することを約束しているが、指数的に増加するアクションスペースと重い試行錯誤により、これらのRLベースのインデックスアドバイザがスケールワークロードにどのように適応できるかに対処する研究はほとんどない。
これらの課題に対処するために,ワークロードの圧縮,クエリ最適化,インデックス選択を効果的にスケールするための特殊なRLモデルを組み合わせたフレームワークであるAutoIndexerを紹介した。
圧縮されたワークロードを操作することで、AutoIndexerはインデックス品質を犠牲にすることなく、検索の複雑さを大幅に低減する。
大規模な評価では、インデックスなしのベースラインに対して、エンドツーエンドのクエリ実行時間を最大95%削減している。
平均すると、最先端のRLベースのインデックスアドバイザを約20%削減し、チューニング時間を50%以上削減する。
これらの結果は、大規模で多様なワークロードに対するAutoIndexerの実用性を確認します。
関連論文リスト
- Search-R1: Training LLMs to Reason and Leverage Search Engines with Reinforcement Learning [50.419872452397684]
Search-R1は推論フレームワークのための強化学習の拡張である。
リアルタイム検索とステップバイステップ推論の間に検索クエリを生成する。
性能は41%(Qwen2.5-7B)、20%(Qwen2.5-3B)で改善されている。
論文 参考訳(メタデータ) (2025-03-12T16:26:39Z) - Semi-Parametric Retrieval via Binary Bag-of-Tokens Index [71.78109794895065]
SemI-parametric Disentangled Retrieval (SiDR)は、ニューラルパラメータから検索インデックスを分離するバイエンコーダ検索フレームワークである。
SiDRは、検索のための非パラメトリックトークン化インデックスをサポートし、BM25のようなインデックス化の複雑さを著しく改善した。
論文 参考訳(メタデータ) (2024-05-03T08:34:13Z) - IA2: Leveraging Instance-Aware Index Advisor with Reinforcement Learning for Diverse Workloads [0.46040036610482665]
インスタンス認識インデックスアドバイザ(IA2)は、データベースにおけるインデックス選択を最適化するための、DRLベースの新しいアプローチである。
IA2 は Twin Delayed Deep Deterministic Policy Gradient - Temporal difference State-Wise Action Refinery (TD3-TD-SWAR) モデルを導入している。
論文 参考訳(メタデータ) (2024-04-08T13:40:26Z) - Towards General and Efficient Online Tuning for Spark [55.30868031221838]
本稿では,3つの問題を同時に処理できる汎用的で効率的なSparkチューニングフレームワークを提案する。
我々は、このフレームワークを独立したクラウドサービスとして実装し、Tencentのデータプラットフォームに適用しました。
論文 参考訳(メタデータ) (2023-09-05T02:16:45Z) - ML-Powered Index Tuning: An Overview of Recent Progress and Open
Challenges [5.675806178685878]
現代のクラウドサービスにおけるワークロードのスケールと複雑さは、自動インデックスチューニングにおける重要な課題に、より焦点を絞っている。
本稿では、自動インデックスチューニングにおけるこれらの課題に注意を向け、機械学習(ML)技術がそれらの緩和に新たな機会をもたらす方法を探る。
論文 参考訳(メタデータ) (2023-08-25T19:20:28Z) - JoinGym: An Efficient Query Optimization Environment for Reinforcement
Learning [58.71541261221863]
結合順序選択(JOS)は、クエリの実行コストを最小化するために結合操作を順序付けする問題である。
木質強化学習(RL)のためのクエリ最適化環境JoinGymを提案する。
JoinGymは内部で、事前計算されたデータセットから中間結果の濃度を調べることで、クエリプランのコストをシミュレートする。
論文 参考訳(メタデータ) (2023-07-21T17:00:06Z) - CARMI: A Cache-Aware Learned Index with a Cost-based Construction
Algorithm [1.9798034349981157]
Recursive Model Index (RMI) フレームワークの効率を改善するために,キャッシュ認識型学習インデックス (CARMI) の設計を提案する。
学習指標の最適設計を最適化問題として探索する問題を定式化し,それを解くための動的プログラミングアルゴリズムを提案する。
実験の結果,ベースラインよりも高い性能でインデックスを構築することができることがわかった。
論文 参考訳(メタデータ) (2021-03-01T09:20:53Z) - The Case for Learned Spatial Indexes [62.88514422115702]
我々は、空間範囲の問合せに答えるために、最先端の学習した多次元インデックス構造(すなわちFlood)から提案した手法を用いる。
i) パーティション内の機械学習検索は、1次元でフィルタリングを使用する場合の2進探索よりも11.79%速く、39.51%高速であることを示す。
また、2次元でフィルタする最も近い競合相手の1.23倍から1.83倍の速さで機械学習インデックスを精査する。
論文 参考訳(メタデータ) (2020-08-24T12:09:55Z) - Tsunami: A Learned Multi-dimensional Index for Correlated Data and
Skewed Workloads [29.223401893397714]
我々は,既存の学習した多次元インデックスよりも最大6倍高速なクエリ性能と最大8倍のインデックスサイズを実現する綱見を紹介した。
論文 参考訳(メタデータ) (2020-06-23T19:25:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。