論文の概要: A Unified and Efficient Coordinating Framework for Autonomous DBMS
Tuning
- arxiv url: http://arxiv.org/abs/2303.05710v1
- Date: Fri, 10 Mar 2023 05:27:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-13 16:10:09.712830
- Title: A Unified and Efficient Coordinating Framework for Autonomous DBMS
Tuning
- Title(参考訳): 自律DBMSチューニングのための統一的で効率的なコーディネートフレームワーク
- Authors: Xinyi Zhang, Zhuo Chang, Hong Wu, Yang Li, Jia Chen, Jian Tan, Feifei
Li, Bin Cui
- Abstract要約: 既存のMLベースのエージェントを効率的に活用するための統合コーディネートフレームワークを提案する。
機械学習ベースのエージェントを効果的に利用し、ワークロードの実行時間に1.414.1Xのスピードアップでより良い設定を実現できることを示す。
- 参考スコア(独自算出の注目度): 34.85351481228439
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently using machine learning (ML) based techniques to optimize modern
database management systems has attracted intensive interest from both industry
and academia. With an objective to tune a specific component of a DBMS (e.g.,
index selection, knobs tuning), the ML-based tuning agents have shown to be
able to find better configurations than experienced database administrators.
However, one critical yet challenging question remains unexplored -- how to
make those ML-based tuning agents work collaboratively. Existing methods do not
consider the dependencies among the multiple agents, and the model used by each
agent only studies the effect of changing the configurations in a single
component. To tune different components for DBMS, a coordinating mechanism is
needed to make the multiple agents cognizant of each other. Also, we need to
decide how to allocate the limited tuning budget among the agents to maximize
the performance. Such a decision is difficult to make since the distribution of
the reward for each agent is unknown and non-stationary. In this paper, we
study the above question and present a unified coordinating framework to
efficiently utilize existing ML-based agents. First, we propose a message
propagation protocol that specifies the collaboration behaviors for agents and
encapsulates the global tuning messages in each agent's model. Second, we
combine Thompson Sampling, a well-studied reinforcement learning algorithm with
a memory buffer so that our framework can allocate budget judiciously in a
non-stationary environment. Our framework defines the interfaces adapted to a
broad class of ML-based tuning agents, yet simple enough for integration with
existing implementations and future extensions. We show that it can effectively
utilize different ML-based agents and find better configurations with 1.4~14.1X
speedups on the workload execution time compared with baselines.
- Abstract(参考訳): 近年、機械学習(ML)に基づく最新のデータベース管理システムの最適化技術は、産業と学術の両方から大きな関心を集めている。
DBMSの特定のコンポーネント(インデックスの選択、ノブのチューニングなど)をチューニングする目的で、MLベースのチューニングエージェントは、経験豊富なデータベース管理者よりも優れた設定を見つけることができることを示した。
しかしながら、重要な問題のひとつとして、MLベースのチューニングエージェントを協調的に動作させる方法について、未検討のままである。
既存のメソッドは、複数のエージェント間の依存関係を考慮せず、各エージェントが使用するモデルは、単一のコンポーネントで構成を変更する効果のみを研究する。
DBMSの異なるコンポーネントをチューニングするためには、複数のエージェントを互いに認識させる調整機構が必要である。
また、パフォーマンスを最大化するために、エージェント間で限られたチューニング予算を割り当てる方法を決定する必要がある。
この決定は、各エージェントに対する報酬の分配が未知であり、非定常であるため、難しい。
本稿では,既存のMLエージェントを効率的に活用するための統合コーディネートフレームワークを提案する。
まず,エージェントの協調動作を特定し,各エージェントモデルにおけるグローバルなチューニングメッセージをカプセル化するメッセージ伝達プロトコルを提案する。
第2に,よく研究された強化学習アルゴリズムであるトンプソンサンプリングとメモリバッファを組み合わせることで,非定常環境において予算を公平に割り当てることができる。
我々のフレームワークは、MLベースのチューニングエージェントの幅広いクラスに適合するインターフェースを定義していますが、既存の実装と将来の拡張との統合には十分簡単です。
MLベースのエージェントを効果的に利用し、ワークロードの実行時間に対して1.4~14.1Xの高速化で、ベースラインよりも優れた構成を実現できることを示す。
関連論文リスト
- Learning to Use Tools via Cooperative and Interactive Agents [61.662788490607475]
ツール学習は、大きな言語モデル(LLM)をエージェントとして、その能力を拡張するために外部ツールを使用する権限を与える。
既存の手法では、1つのLCMベースのエージェントを使用してツールを反復的に選択し実行し、その結果を次のアクション予測に組み込む。
本研究では,協調型対話型エージェントフレームワークであるConAgentsを提案し,ツール学習のワークフローをグラウンディング,実行,監視エージェントにモジュール化する。
論文 参考訳(メタデータ) (2024-03-05T15:08:16Z) - Towards Robust Multi-Modal Reasoning via Model Selection [8.37038849337004]
LLMはエージェントの"脳"として機能し、協調的な多段階タスク解決のための複数のツールを編成する。
我々はテスト時に無視できるランタイムオーバーヘッドを持つプラグインとして、$textitM3$フレームワークを提案する。
実験の結果,我々のフレームワークは,ユーザ入力とサブタスク依存の両方を考慮した動的モデル選択を可能にすることがわかった。
論文 参考訳(メタデータ) (2023-10-12T16:06:18Z) - Dynamic LLM-Agent Network: An LLM-agent Collaboration Framework with
Agent Team Optimization [59.39113350538332]
大規模言語モデル(LLM)エージェントは幅広いタスクで有効であることが示されており、複数のLLMエージェントを組み込むことで、その性能をさらに向上することができる。
既存のアプローチでは、固定されたエージェントセットを使用して静的アーキテクチャで相互に相互作用する。
我々は、推論やコード生成といった複雑なタスクにおいて、LLM-agentコラボレーションのためにDynamic LLM-Agent Network(textbfDyLAN$)というフレームワークを構築します。
論文 参考訳(メタデータ) (2023-10-03T16:05:48Z) - AutoAgents: A Framework for Automatic Agent Generation [30.6362151885679]
AutoAgentsは、さまざまなタスクに応じてAIチームを構築するために、複数の専門エージェントを適応的に生成し、コーディネートする革新的なフレームワークである。
各種ベンチマーク実験により,AutoAgentsは既存のマルチエージェント手法よりも一貫性と正確な解を生成することが示された。
論文 参考訳(メタデータ) (2023-09-29T14:46:30Z) - Recommender AI Agent: Integrating Large Language Models for Interactive
Recommendations [53.76682562935373]
我々は,LLMを脳として,レコメンダモデルをツールとして使用する,textbfInteRecAgentという効率的なフレームワークを紹介した。
InteRecAgentは会話レコメンデーションシステムとして満足度を達成し、汎用LLMよりも優れる。
論文 参考訳(メタデータ) (2023-08-31T07:36:44Z) - Multi-Agent Reinforcement Learning for Microprocessor Design Space
Exploration [71.95914457415624]
マイクロプロセッサアーキテクトは、高性能でエネルギー効率の追求において、ドメイン固有のカスタマイズにますます頼っている。
この問題に対処するために,Multi-Agent RL (MARL) を利用した別の定式化を提案する。
評価の結果,MARLの定式化は単エージェントRLのベースラインよりも一貫して優れていた。
論文 参考訳(メタデータ) (2022-11-29T17:10:24Z) - Multi-agent Deep Covering Skill Discovery [50.812414209206054]
本稿では,複数エージェントの結合状態空間の予測被覆時間を最小化し,マルチエージェントオプションを構築するマルチエージェントDeep Covering Option Discoveryを提案する。
また、MARLプロセスにマルチエージェントオプションを採用するための新しいフレームワークを提案する。
提案アルゴリズムは,アテンション機構とエージェントの相互作用を効果的に把握し,マルチエージェントオプションの同定に成功した。
論文 参考訳(メタデータ) (2022-10-07T00:40:59Z) - Multi-agent Databases via Independent Learning [11.05491559831151]
学習クエリスケジューラと学習クエリを組み込んだ概念実証システムであるMADB(Multi-Agent DB)を紹介する。
予備的な結果は、MADBが学習したコンポーネントの非協調的な統合よりも優れていることを示している。
論文 参考訳(メタデータ) (2022-05-28T03:47:43Z) - A Unified Transferable Model for ML-Enhanced DBMS [53.46830627879208]
本稿では,タスク間で伝達可能な知識をキャプチャするマルチタスクトレーニングプロシージャと,db間でのメタ知識を蒸留するプリトレーニングファインチューンプロシージャを用いた統一モデルmtmlfを提案する。
このパラダイムはクラウドDBサービスに適しており、将来的にMLの使用方法に革命をもたらす可能性があると考えています。
論文 参考訳(メタデータ) (2021-05-06T03:31:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。