論文の概要: A New Paradigm in Tuning Learned Indexes: A Reinforcement Learning Enhanced Approach
- arxiv url: http://arxiv.org/abs/2502.05001v1
- Date: Fri, 07 Feb 2025 15:22:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-10 14:55:36.056953
- Title: A New Paradigm in Tuning Learned Indexes: A Reinforcement Learning Enhanced Approach
- Title(参考訳): チューニング学習指標の新しいパラダイム:強化学習によるアプローチ
- Authors: Taiyi Wang, Liang Liang, Guang Yang, Thomas Heinis, Eiko Yoneki,
- Abstract要約: 本稿ではLearted Index Structuresのエンドツーエンド自動チューニングのための新しいフレームワークであるLITuneを紹介する。
LITuneは、安定的で効率的なチューニングを保証するために、テーラーメイドのDeep Reinforcement Learning (DRL)アプローチを備えた適応的なトレーニングパイプラインを使用している。
LITuneは最大98%のランタイム削減と17倍のスループット向上を実現している。
- 参考スコア(独自算出の注目度): 6.454589614577438
- License:
- Abstract: Learned Index Structures (LIS) have significantly advanced data management by leveraging machine learning models to optimize data indexing. However, designing these structures often involves critical trade-offs, making it challenging for both designers and end-users to find an optimal balance tailored to specific workloads and scenarios. While some indexes offer adjustable parameters that demand intensive manual tuning, others rely on fixed configurations based on heuristic auto-tuners or expert knowledge, which may not consistently deliver optimal performance. This paper introduces LITune, a novel framework for end-to-end automatic tuning of Learned Index Structures. LITune employs an adaptive training pipeline equipped with a tailor-made Deep Reinforcement Learning (DRL) approach to ensure stable and efficient tuning. To accommodate long-term dynamics arising from online tuning, we further enhance LITune with an on-the-fly updating mechanism termed the O2 system. These innovations allow LITune to effectively capture state transitions in online tuning scenarios and dynamically adjust to changing data distributions and workloads, marking a significant improvement over other tuning methods. Our experimental results demonstrate that LITune achieves up to a 98% reduction in runtime and a 17-fold increase in throughput compared to default parameter settings given a selected Learned Index instance. These findings highlight LITune's effectiveness and its potential to facilitate broader adoption of LIS in real-world applications.
- Abstract(参考訳): 学習インデックス構造(LIS)は、機械学習モデルを活用してデータインデックスを最適化することにより、大幅に高度なデータ管理を行う。
しかしながら、これらの構造の設計には重要なトレードオフが伴うことが多いため、デザイナとエンドユーザの両方が、特定のワークロードやシナリオに合わせて最適なバランスを見つけることが困難になる。
一部のインデックスは、集中的なマニュアルチューニングを必要とする調整可能なパラメータを提供するが、他のインデックスはヒューリスティックなオートチューナーや専門家の知識に基づく固定された設定に依存しており、常に最適なパフォーマンスを提供するわけではない。
本稿ではLearted Index Structuresのエンドツーエンド自動チューニングのための新しいフレームワークであるLITuneを紹介する。
LITuneは、安定的で効率的なチューニングを保証するために、テーラーメイドのDeep Reinforcement Learning (DRL)アプローチを備えた適応的なトレーニングパイプラインを使用している。
オンラインチューニングから生じる長期的ダイナミクスに対応するため,O2システムと呼ばれるオンザフライ更新機構により,LITuneをさらに強化する。
これらのイノベーションにより、LITuneはオンラインチューニングシナリオにおける状態遷移を効果的にキャプチャし、データ分散やワークロードの変更を動的に調整することが可能になる。
実験の結果,選択したLearted Indexインスタンスのデフォルトパラメータ設定と比較して,LITuneは最大98%のランタイム削減と17倍のスループット向上を実現していることがわかった。
これらの知見は、LITuneの有効性と、現実のアプリケーションにおけるLISの広範な採用を促進する可能性を強調している。
関連論文リスト
- Dynamic Rewarding with Prompt Optimization Enables Tuning-free Self-Alignment of Language Models [54.381650481255235]
我々は,Prompt Optimization (O) を用いた動的リワードによる自己アライメントのための新しいチューニング不要アプローチを提案する。
提案手法は,LLMを反復的に自己改善し,最適アライメント命令を作成可能な検索ベース最適化フレームワークを活用する。
近年の8つのLCMのオープンおよびクローズドソースに関する実証評価により,DRPOはアライメント性能を著しく向上することが示された。
論文 参考訳(メタデータ) (2024-11-13T16:15:38Z) - UpLIF: An Updatable Self-Tuning Learned Index Framework [4.077820670802213]
UpLIFは、入ってくる更新に対応するようにモデルを調整した適応的な自己チューニング学習インデックスである。
また、モデル固有の特性を決定するバランスモデル調整の概念も導入する。
論文 参考訳(メタデータ) (2024-08-07T22:30:43Z) - Step-On-Feet Tuning: Scaling Self-Alignment of LLMs via Bootstrapping [53.454408491386886]
自己アライメントのブートストラップは、シングルラウンドアプローチをはるかに上回る。
モデルが継続的に強化した複数ショット機能を活用してゼロまたはワンショットのパフォーマンスを向上するステップ・オン・フィート・チューニング(SOFT)を提案する。
簡単な学習法に基づいて、自己アライメントの性能をさらに向上させるSOFT+を提案する。
論文 参考訳(メタデータ) (2024-02-12T12:30:42Z) - When Parameter-efficient Tuning Meets General-purpose Vision-language
Models [65.19127815275307]
PETALは、一意のモード近似技術によって達成される全パラメータの0.5%しか必要とせず、トレーニングプロセスに革命をもたらす。
実験の結果,PETALは現状の手法をほとんどのシナリオで上回るだけでなく,完全な微調整モデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-12-16T17:13:08Z) - Federated Learning of Large Language Models with Parameter-Efficient
Prompt Tuning and Adaptive Optimization [71.87335804334616]
フェデレートラーニング(FL)は、分散データとの協調モデルトレーニングを可能にする、有望なパラダイムである。
LLM(Large Language Models)のトレーニングプロセスは一般的に重要なパラメータの更新を引き起こす。
本稿では,性能と効率を同時に向上する効率的な部分的プロンプトチューニング手法を提案する。
論文 参考訳(メタデータ) (2023-10-23T16:37:59Z) - Learning to Do or Learning While Doing: Reinforcement Learning and
Bayesian Optimisation for Online Continuous Tuning [0.0]
本稿では,実粒子加速器におけるルーチンタスクを用いた比較研究を例に挙げる。
本研究の結果から,与えられたチューニングタスクに対するアルゴリズムの選択を導くための明確な基準セットを提供する。
これにより、複雑な現実世界のプラントの運用において、学習ベースの自律的チューニングソリューションの採用が容易になる。
論文 参考訳(メタデータ) (2023-06-06T14:56:47Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - Accelerating Federated Learning with a Global Biased Optimiser [16.69005478209394]
Federated Learning(FL)は、クライアントデバイスを離れるトレーニングデータなしでモデルを協調訓練する機械学習の分野における最近の開発である。
本稿では,FedGBO(Federated Global Biased Optimiser)アルゴリズムを用いて,適応最適化手法をFLに適用する手法を提案する。
FedGBOは、FLの局所的なトレーニングフェーズにおいて、グローバルバイアス付きオプティマイザ値のセットを適用することでFLを加速し、非IIDデータからのクライアントドリフトを減少させる。
論文 参考訳(メタデータ) (2021-08-20T12:08:44Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。