論文の概要: A Framework for dynamically meeting performance objectives on a service
mesh
- arxiv url: http://arxiv.org/abs/2306.14178v1
- Date: Sun, 25 Jun 2023 09:08:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 16:24:07.007045
- Title: A Framework for dynamically meeting performance objectives on a service
mesh
- Title(参考訳): サービスメッシュにおけるパフォーマンス目標を動的に満たすためのフレームワーク
- Authors: Forough Shahab Samani and Rolf Stadler
- Abstract要約: サービスメッシュ上で並列に実行される複数のサービスに対して,エンドツーエンドの管理目標を達成するためのフレームワークを提案する。
実資源に対して定期的に制御動作を行うエージェントの訓練に強化学習技術を適用した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We present a framework for achieving end-to-end management objectives for
multiple services that concurrently execute on a service mesh. We apply
reinforcement learning (RL) techniques to train an agent that periodically
performs control actions to reallocate resources. We develop and evaluate the
framework using a laboratory testbed where we run information and computing
services on a service mesh, supported by the Istio and Kubernetes platforms. We
investigate different management objectives that include end-to-end delay
bounds on service requests, throughput objectives, cost-related objectives, and
service differentiation. We compute the control policies on a simulator rather
than on the testbed, which speeds up the training time by orders of magnitude
for the scenarios we study. Our proposed framework is novel in that it
advocates a top-down approach whereby the management objectives are defined
first and then mapped onto the available control actions. It allows us to
execute several types of control actions simultaneously. By first learning the
system model and the operating region from testbed traces, we can train the
agent for different management objectives in parallel.
- Abstract(参考訳): サービスメッシュ上で並列に実行される複数のサービスのエンドツーエンド管理目的を達成するためのフレームワークを提案する。
資源再配置のために定期的に制御動作を行うエージェントの訓練に強化学習(RL)技術を適用した。
IstioとKubernetesプラットフォームがサポートするサービスメッシュ上で情報とコンピューティングサービスを実行する実験室のテストベッドを使用して、フレームワークの開発と評価を行います。
サービス要求のエンドツーエンド遅延境界,スループット目標,コスト関連目標,サービス分化など,さまざまな管理目標について検討する。
テストベッドではなくシミュレータ上での制御ポリシを計算し、学習シナリオの桁違いのトレーニング時間を高速化する。
提案するフレームワークは,管理対象をまず定義し,利用可能な制御アクションにマップするトップダウンアプローチを提唱する点で新規である。
これにより、複数のタイプの制御アクションを同時に実行できます。
まず,テスト済みトレースからシステムモデルと運用領域を学習することにより,エージェントを異なる管理目的に対して並列に訓練することができる。
関連論文リスト
- A Dynamic LLM-Powered Agent Network for Task-Oriented Agent Collaboration [55.35849138235116]
本稿では,様々なタスクやドメインに対する動的コミュニケーション構造において,候補からエージェントのチームを自動的に選択する手法を提案する。
具体的には, LLMを利用したエージェント協調のための動的LLMパワーエージェントネットワーク(textDyLAN$)というフレームワークを構築した。
我々は、コード生成、意思決定、一般的な推論、算術的推論タスクにおいて、適度な計算コストで、DyLANが強力なベースラインを上回ることを実証する。
論文 参考訳(メタデータ) (2023-10-03T16:05:48Z) - Discrete Factorial Representations as an Abstraction for Goal
Conditioned Reinforcement Learning [99.38163119531745]
離散化ボトルネックを適用することにより,目標条件付きRLセットアップの性能が向上することを示す。
分布外目標に対する期待した回帰を実験的に証明し、同時に表現的な構造で目標を指定できるようにします。
論文 参考訳(メタデータ) (2022-11-01T03:31:43Z) - Dynamically meeting performance objectives for multiple services on a
service mesh [0.0]
サービスプロバイダがさまざまな負荷下でエンドツーエンドの管理目標を達成するためのフレームワークを提案する。
サービス要求のエンドツーエンド遅延境界、スループット目標、サービス差別化など、さまざまな管理目標について検討する。
テストベッドではなくシミュレータ上で制御ポリシを計算し,学習プロセスを桁違いに高速化する。
論文 参考訳(メタデータ) (2022-10-08T11:54:25Z) - Multitask Adaptation by Retrospective Exploration with Learned World
Models [77.34726150561087]
本稿では,タスク非依存ストレージから取得したMBRLエージェントのトレーニングサンプルを提供するRAMaというメタ学習型アドレッシングモデルを提案する。
このモデルは、期待されるエージェントのパフォーマンスを最大化するために、ストレージから事前のタスクを解く有望な軌道を選択することで訓練される。
論文 参考訳(メタデータ) (2021-10-25T20:02:57Z) - C-Planning: An Automatic Curriculum for Learning Goal-Reaching Tasks [133.40619754674066]
ゴール条件強化学習は、ナビゲーションや操作を含む幅広い領域のタスクを解決できる。
本研究では,学習時間における探索を用いて,中間状態を自動生成する遠隔目標獲得タスクを提案する。
E-stepはグラフ検索を用いて最適な経路点列を計画することに対応し、M-stepはそれらの経路点に到達するための目標条件付きポリシーを学習することを目的としている。
論文 参考訳(メタデータ) (2021-10-22T22:05:31Z) - Exploring Relational Context for Multi-Task Dense Prediction [76.86090370115]
我々は,共通バックボーンと独立タスク固有のヘッドで表される,密集予測タスクのためのマルチタスク環境を考える。
マルチタスク設定では,グローバルやローカルなど,さまざまな注意に基づくコンテキストを探索する。
タスクペアごとに利用可能なすべてのコンテキストのプールをサンプリングするAdaptive Task-Relational Contextモジュールを提案する。
論文 参考訳(メタデータ) (2021-04-28T16:45:56Z) - Scalable Reinforcement Learning Policies for Multi-Agent Control [29.42370205354368]
目標追跡のためのスケーラブルな制御ポリシーを学習するためのマルチエージェント強化学習(MARL)手法を開発した。
最大1000人の追従者による1000の目標追跡タスクの結果を示す。
論文 参考訳(メタデータ) (2020-11-16T16:11:12Z) - Automatic Curriculum Learning through Value Disagreement [95.19299356298876]
新しい未解決タスクを継続的に解決することが、多様な行動を学ぶための鍵です。
エージェントが複数の目標を達成する必要があるマルチタスク領域では、トレーニング目標の選択はサンプル効率に大きな影響を与える可能性がある。
そこで我々は,エージェントが解決すべき目標のための自動カリキュラムを作成することを提案する。
提案手法は,13のマルチゴールロボットタスクと5つのナビゲーションタスクにまたがって評価し,現在の最先端手法よりも高い性能を示す。
論文 参考訳(メタデータ) (2020-06-17T03:58:25Z) - PlanGAN: Model-based Planning With Sparse Rewards and Multiple Goals [14.315501760755609]
PlanGANは、スパース報酬のある環境におけるマルチゴールタスクを解くためのモデルベースのアルゴリズムである。
本研究は,PlanGANが4~8倍の効率で,同等の性能を達成できることを示唆する。
論文 参考訳(メタデータ) (2020-06-01T12:53:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。