論文の概要: MAS-H2: A Hierarchical Multi-Agent System for Holistic Cloud-Native Autoscaling
- arxiv url: http://arxiv.org/abs/2603.07607v1
- Date: Sun, 08 Mar 2026 12:39:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:14.908266
- Title: MAS-H2: A Hierarchical Multi-Agent System for Holistic Cloud-Native Autoscaling
- Title(参考訳): MAS-H2: ホリスティッククラウドネイティブ自動スケーリングのための階層型マルチエージェントシステム
- Authors: Hamed Hamzeh, Parisa Vahdatian,
- Abstract要約: 我々は,自律的クラウドリソース管理の課題に対処する階層型マルチエージェントシステムMAS-H2を提案する。
私たちは、ネイティブのHorizontal Pod Autoscaler(HPA)とCluster Autoscaler(CA)とをベンチマークするために、Google Engine(GKE)のOperatorとしてMAS-H2プロトタイプを構築し、テストしました。
その結果、MAS-H2システムは予測可能なHeartbeatワークロードの40%以下でアプリケーションCPU使用率を維持していることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autoscaling in cloud-native platforms like Kubernetes is reactive and metric-driven, leading to a strategic void problem. This comes from the decoupling of higher-level business policies from lower-level resource provisioning. The strategic void, coupled with a fragmented coordination of pod and node scaling, can lead to significant resource waste and performance degradation under dynamic workloads. In this paper, we present MAS-H2, a new hierarchical multi-agent system that addresses the challenges of autonomic cloud resource management with a complete end-to-end solution. MAS-H2 systematically decomposes the control problem into three layers: a Strategic Agent that formalises business policies (e.g., cost vs. performance) into a global utility function; Planning Agents that produce a joint, proactive scaling plan for pods and nodes with time-series forecasting; and Execution Agents that execute the scaling plan. We built and tested a MAS-H2 prototype as a Kubernetes Operator on Google Kubernetes Engine (GKE) to benchmark it against the native Horizontal Pod Autoscaler (HPA) and Cluster Autoscaler (CA) baselines under two realistic, spiky, and stress-inducing workload scenarios. The results show that the MAS-H2 system maintained application CPU usage under 40% for predictable Heartbeat workloads. This resulted in over 50% less sustained CPU stress than the native HPA baseline, which typically operated above 80%. The MAS-H2 system demonstrated proactive planning in a volatile Chaotic Flash Sale scenario by filtering transient noise and deploying more replicas compared to HPA. It reduced peak CPU load by 55% without under-provisioning. Beyond performance, MAS-H2 seamlessly performed a zero-downtime strategic migration between two cost- and performance-optimised infrastructures.
- Abstract(参考訳): Kubernetesのようなクラウドネイティブプラットフォームでの自動スケーリングは、リアクティブでメトリクス駆動であり、戦略的に無効な問題を引き起こします。
これは、低レベルのリソース供給から高レベルのビジネスポリシーを分離することに由来する。
戦略的無効化とポッドの断片的な調整とノードのスケーリングは、動的ワークロード下でのリソースの浪費とパフォーマンスの大幅な低下につながる可能性がある。
本稿では,完全エンドツーエンドソリューションによる自律的クラウドリソース管理の課題に対処する,階層型マルチエージェントシステムMAS-H2を提案する。
MAS-H2は、制御問題を3つの層に体系的に分解する: ビジネスポリシー(例えばコスト対パフォーマンス)をグローバルユーティリティ機能にフォーマル化する戦略エージェント、時系列予測でポッドとノードの協調的で積極的なスケーリング計画を作成する計画エージェント、スケーリング計画を実行する実行エージェント。
私たちは、Google Kubernetes Engine(GKE)上のKubernetesオペレータとしてMAS-H2プロトタイプを構築して、ネイティブのHorizontal Pod Autoscaler(HPA)とCluster Autoscaler(CA)のベースラインに対して、2つの現実的でスパイクでストレスを誘発するワークロードシナリオでベンチマークしました。
その結果、MAS-H2システムは予測可能なHeartbeatワークロードの40%以下でアプリケーションCPU使用率を維持していることがわかった。
これにより、通常80%以上で動作するネイティブなHPAベースラインよりも、持続的なCPUストレスが50%以上削減された。
MAS-H2システムは、過渡的なノイズをフィルタリングし、HPAと比較して多くのレプリカをデプロイすることで、揮発性のカオスフラッシュセールシナリオでプロアクティブな計画を示した。
これによりCPUのピーク負荷が55%削減された。
パフォーマンス以外にも、MAS-H2はコストとパフォーマンスに最適化された2つのインフラストラクチャ間のゼロダウンタイムの戦略的マイグレーションをシームレスに実行した。
関連論文リスト
- Cloud-OpsBench: A Reproducible Benchmark for Agentic Root Cause Analysis in Cloud Systems [51.2882705779387]
Cloud-OpsBenchは、State Snapshot Paradigmを使用して、クラウドの決定論的デジタルツインを構築する大規模なベンチマークである。
フルスタックにまたがる40の根本原因タイプに452の障害ケースがある。
論文 参考訳(メタデータ) (2026-02-28T05:04:42Z) - MagicAgent: Towards Generalized Agent Planning [73.21129030631421]
汎用エージェント計画に特化して設計された基盤モデルである textbfMagicAgent について述べる。
多様な計画タスクにまたがる高品質なトラジェクトリを生成する軽量でスケーラブルな合成データフレームワークを提案する。
MagicAgent-32B と MagicAgent-30B-A3B は様々なオープンソースベンチマークにおいて優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2026-02-22T01:39:16Z) - Agentic Test-Time Scaling for WebAgents [65.5178428849495]
CATTS(Confidence-Aware Test-Time Scaling)を提案する。
CATTSは、WebArena-LiteとGoBrowseのパフォーマンスをReact上で最大9.1%改善し、均一なスケーリングよりも最大2.3倍少ないトークンを使用する。
論文 参考訳(メタデータ) (2026-02-12T18:58:30Z) - LASER: An Efficient Target-Aware Segmented Attention Framework for End-to-End Long Sequence Modeling [20.507605423606282]
我々はXiaohongshu(RedNote)で開発・デプロイされたフルスタック最適化フレームワークLASERを紹介する。
システムの効率性: 長いユーザ履歴のための統合スキーマ対応サービスインフラストラクチャであるSeqVaultを紹介します。
アルゴリズム効率: 計算オーバーヘッドに対処するためのSTA(Segmented Target Attention)機構を提案する。
論文 参考訳(メタデータ) (2026-02-12T04:33:37Z) - Astraea: A State-Aware Scheduling Engine for LLM-Powered Agents [12.884297990127985]
Astraeaは、最適化をローカルセグメントからグローバルリクエストライフサイクルに移行するように設計されたサービスエンジンである。
これは、リクエストの履歴状態と将来の予測を統合する、ステートアウェアで階層的なスケジューリングアルゴリズムを採用している。
Astraea は平均 JCT を基準法に比べて 25.5% 削減する。
論文 参考訳(メタデータ) (2025-12-16T06:55:10Z) - UltraCUA: A Foundation Model for Computer Use Agents with Hybrid Action [77.63125913907771]
本稿では,GUIプリミティブと高レベルのプログラムツールコールのギャップを埋める基盤モデルであるUltraCUAを提案する。
7Bおよび32Bモデルによる実験は、最先端のエージェントよりも大幅に改善されている。
論文 参考訳(メタデータ) (2025-10-20T17:48:26Z) - Anemoi: A Semi-Centralized Multi-agent System Based on Agent-to-Agent Communication MCP server from Coral Protocol [0.7288110873705294]
Anemoi は、Coral Protocol の Agent-to-Agent (A2A) 通信 MCP サーバ上に構築された、半集中型の MAS である。
従来のデザインとは異なり、Anemoiは構造的かつ直接的なエージェント間コラボレーションを可能にし、すべてのエージェントが進捗を監視し、結果を評価し、ボトルネックを特定し、リアルタイムに改善を提案する。
論文 参考訳(メタデータ) (2025-08-23T15:45:10Z) - Agent.xpu: Efficient Scheduling of Agentic LLM Workloads on Heterogeneous SoC [11.82567747365518]
本稿では,メモリ統一ヘテロジニアス SOC 上でのエージェント LLM ワークロードの効率的なサービスシステムである Agent.xpu について紹介する。
Agent.xpuは専用のオフラインプロファイリングにより、アフィニティ誘導弾性加速器マッピングのためにモデルカーネルを融合・チャンクする異種実行グラフを最初に構築した。
実行時に、そのオンラインスケジューラは、粒度の細かいカーネルレベルのプリエンプションを可能にし、リアクティブタスクの応答性を保証する。
論文 参考訳(メタデータ) (2025-06-30T16:50:48Z) - Streamlining Resilient Kubernetes Autoscaling with Multi-Agent Systems via an Automated Online Design Framework [0.0]
クラウドネイティブなシステムは、ワークロード管理の貧弱な問題のために、運用上のレジリエンスに直面することが多い。
協調エージェントに委譲された障害固有のサブゴールに、運用上のレジリエンスを維持するという、包括的な目標を分解することを提案する。
1)クラスタトレースから構築されたディジタルツインのモデリング,2)障害コンテキストに適した役割やミッションを用いたシミュレーションエージェントのトレーニング,3)説明可能性のためのエージェント動作の解析,4)学習ポリシを実クラスタに転送する。
論文 参考訳(メタデータ) (2025-05-26T20:39:31Z) - FusionLLM: A Decentralized LLM Training System on Geo-distributed GPUs with Adaptive Compression [55.992528247880685]
分散トレーニングは、システム設計と効率に関する重要な課題に直面します。
大規模深層ニューラルネットワーク(DNN)のトレーニング用に設計・実装された分散トレーニングシステムFusionLLMを提案する。
本システムと手法は,収束性を確保しつつ,ベースライン法と比較して1.45~9.39倍の高速化を実現可能であることを示す。
論文 参考訳(メタデータ) (2024-10-16T16:13:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。