論文の概要: A Unified and Efficient Coordinating Framework for Autonomous DBMS
Tuning
- arxiv url: http://arxiv.org/abs/2303.05710v1
- Date: Fri, 10 Mar 2023 05:27:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-13 16:10:09.712830
- Title: A Unified and Efficient Coordinating Framework for Autonomous DBMS
Tuning
- Title(参考訳): 自律DBMSチューニングのための統一的で効率的なコーディネートフレームワーク
- Authors: Xinyi Zhang, Zhuo Chang, Hong Wu, Yang Li, Jia Chen, Jian Tan, Feifei
Li, Bin Cui
- Abstract要約: 既存のMLベースのエージェントを効率的に活用するための統合コーディネートフレームワークを提案する。
機械学習ベースのエージェントを効果的に利用し、ワークロードの実行時間に1.414.1Xのスピードアップでより良い設定を実現できることを示す。
- 参考スコア(独自算出の注目度): 34.85351481228439
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently using machine learning (ML) based techniques to optimize modern
database management systems has attracted intensive interest from both industry
and academia. With an objective to tune a specific component of a DBMS (e.g.,
index selection, knobs tuning), the ML-based tuning agents have shown to be
able to find better configurations than experienced database administrators.
However, one critical yet challenging question remains unexplored -- how to
make those ML-based tuning agents work collaboratively. Existing methods do not
consider the dependencies among the multiple agents, and the model used by each
agent only studies the effect of changing the configurations in a single
component. To tune different components for DBMS, a coordinating mechanism is
needed to make the multiple agents cognizant of each other. Also, we need to
decide how to allocate the limited tuning budget among the agents to maximize
the performance. Such a decision is difficult to make since the distribution of
the reward for each agent is unknown and non-stationary. In this paper, we
study the above question and present a unified coordinating framework to
efficiently utilize existing ML-based agents. First, we propose a message
propagation protocol that specifies the collaboration behaviors for agents and
encapsulates the global tuning messages in each agent's model. Second, we
combine Thompson Sampling, a well-studied reinforcement learning algorithm with
a memory buffer so that our framework can allocate budget judiciously in a
non-stationary environment. Our framework defines the interfaces adapted to a
broad class of ML-based tuning agents, yet simple enough for integration with
existing implementations and future extensions. We show that it can effectively
utilize different ML-based agents and find better configurations with 1.4~14.1X
speedups on the workload execution time compared with baselines.
- Abstract(参考訳): 近年、機械学習(ML)に基づく最新のデータベース管理システムの最適化技術は、産業と学術の両方から大きな関心を集めている。
DBMSの特定のコンポーネント(インデックスの選択、ノブのチューニングなど)をチューニングする目的で、MLベースのチューニングエージェントは、経験豊富なデータベース管理者よりも優れた設定を見つけることができることを示した。
しかしながら、重要な問題のひとつとして、MLベースのチューニングエージェントを協調的に動作させる方法について、未検討のままである。
既存のメソッドは、複数のエージェント間の依存関係を考慮せず、各エージェントが使用するモデルは、単一のコンポーネントで構成を変更する効果のみを研究する。
DBMSの異なるコンポーネントをチューニングするためには、複数のエージェントを互いに認識させる調整機構が必要である。
また、パフォーマンスを最大化するために、エージェント間で限られたチューニング予算を割り当てる方法を決定する必要がある。
この決定は、各エージェントに対する報酬の分配が未知であり、非定常であるため、難しい。
本稿では,既存のMLエージェントを効率的に活用するための統合コーディネートフレームワークを提案する。
まず,エージェントの協調動作を特定し,各エージェントモデルにおけるグローバルなチューニングメッセージをカプセル化するメッセージ伝達プロトコルを提案する。
第2に,よく研究された強化学習アルゴリズムであるトンプソンサンプリングとメモリバッファを組み合わせることで,非定常環境において予算を公平に割り当てることができる。
我々のフレームワークは、MLベースのチューニングエージェントの幅広いクラスに適合するインターフェースを定義していますが、既存の実装と将来の拡張との統合には十分簡単です。
MLベースのエージェントを効果的に利用し、ワークロードの実行時間に対して1.4~14.1Xの高速化で、ベースラインよりも優れた構成を実現できることを示す。
関連論文リスト
- AutoML-Agent: A Multi-Agent LLM Framework for Full-Pipeline AutoML [56.565200973244146]
自動機械学習(Automated Machine Learning, ML)は、開発パイプライン内のタスクを自動化することによって、AI開発を加速する。
近年の作業では,そのような負担を軽減するために,大規模言語モデル(LLM)の利用が始まっている。
本稿では,フルパイプのAutoMLに適した新しいマルチエージェントフレームワークであるAutoML-Agentを提案する。
論文 参考訳(メタデータ) (2024-10-03T20:01:09Z) - Learning to Use Tools via Cooperative and Interactive Agents [58.77710337157665]
ツール学習は、外部ツールを使用してユーティリティを拡張するエージェントとして、大きな言語モデル(LLM)を促進する。
ツール選択,ツール実行,アクションキャリブレーションの3つの特別なエージェントを個別にコーディネートする,協調型対話型エージェントフレームワークであるConAgentsを提案する。
3つのデータセットに対する実験により、LLMは、ConAgentsを装備した場合、大幅に改善されたベースラインよりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-03-05T15:08:16Z) - Towards Robust Multi-Modal Reasoning via Model Selection [7.6621866737827045]
LLMはエージェントの"脳"として機能し、協調的な多段階タスク解決のための複数のツールを編成する。
我々はテスト時に無視できるランタイムオーバーヘッドを持つプラグインとして、$textitM3$フレームワークを提案する。
実験の結果,我々のフレームワークは,ユーザ入力とサブタスク依存の両方を考慮した動的モデル選択を可能にすることがわかった。
論文 参考訳(メタデータ) (2023-10-12T16:06:18Z) - A Dynamic LLM-Powered Agent Network for Task-Oriented Agent Collaboration [55.35849138235116]
本稿では,様々なタスクやドメインに対する動的コミュニケーション構造において,候補からエージェントのチームを自動的に選択する手法を提案する。
具体的には, LLMを利用したエージェント協調のための動的LLMパワーエージェントネットワーク(textDyLAN$)というフレームワークを構築した。
我々は、コード生成、意思決定、一般的な推論、算術的推論タスクにおいて、適度な計算コストで、DyLANが強力なベースラインを上回ることを実証する。
論文 参考訳(メタデータ) (2023-10-03T16:05:48Z) - AutoAgents: A Framework for Automatic Agent Generation [27.74332323317923]
AutoAgentsは、さまざまなタスクに応じてAIチームを構築するために、複数の専門エージェントを適応的に生成し、コーディネートする革新的なフレームワークである。
各種ベンチマーク実験により,AutoAgentsは既存のマルチエージェント手法よりも一貫性と正確な解を生成することが示された。
論文 参考訳(メタデータ) (2023-09-29T14:46:30Z) - Recommender AI Agent: Integrating Large Language Models for Interactive
Recommendations [53.76682562935373]
我々は,LLMを脳として,レコメンダモデルをツールとして使用する,textbfInteRecAgentという効率的なフレームワークを紹介した。
InteRecAgentは会話レコメンデーションシステムとして満足度を達成し、汎用LLMよりも優れる。
論文 参考訳(メタデータ) (2023-08-31T07:36:44Z) - Multi-Agent Reinforcement Learning for Microprocessor Design Space
Exploration [71.95914457415624]
マイクロプロセッサアーキテクトは、高性能でエネルギー効率の追求において、ドメイン固有のカスタマイズにますます頼っている。
この問題に対処するために,Multi-Agent RL (MARL) を利用した別の定式化を提案する。
評価の結果,MARLの定式化は単エージェントRLのベースラインよりも一貫して優れていた。
論文 参考訳(メタデータ) (2022-11-29T17:10:24Z) - Multi-agent Deep Covering Skill Discovery [50.812414209206054]
本稿では,複数エージェントの結合状態空間の予測被覆時間を最小化し,マルチエージェントオプションを構築するマルチエージェントDeep Covering Option Discoveryを提案する。
また、MARLプロセスにマルチエージェントオプションを採用するための新しいフレームワークを提案する。
提案アルゴリズムは,アテンション機構とエージェントの相互作用を効果的に把握し,マルチエージェントオプションの同定に成功した。
論文 参考訳(メタデータ) (2022-10-07T00:40:59Z) - Multi-agent Databases via Independent Learning [11.05491559831151]
学習クエリスケジューラと学習クエリを組み込んだ概念実証システムであるMADB(Multi-Agent DB)を紹介する。
予備的な結果は、MADBが学習したコンポーネントの非協調的な統合よりも優れていることを示している。
論文 参考訳(メタデータ) (2022-05-28T03:47:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。