論文の概要: Morphis: SLO-Aware Resource Scheduling for Microservices with Time-Varying Call Graphs
- arxiv url: http://arxiv.org/abs/2602.01044v2
- Date: Tue, 03 Feb 2026 03:56:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 16:18:58.841975
- Title: Morphis: SLO-Aware Resource Scheduling for Microservices with Time-Varying Call Graphs
- Title(参考訳): Morphis: 時間変数コールグラフによるマイクロサービスのためのSLO対応リソーススケジューリング
- Authors: Yu Tang, Hailiang Zhao, Chuansheng Lu, Yifei Zhang, Kingsum Chow, Shuiguang Deng, Rui Shi,
- Abstract要約: パターン認識トレース分析とグローバル最適化を一体化する依存性認識フレームワークであるMorphisを提案する。
TrainTicketベンチマークによる評価から,Morphisは最先端のベースラインに比べてCPU消費を35~38%削減できることがわかった。
- 参考スコア(独自算出の注目度): 26.269214281433364
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Modern microservice systems exhibit continuous structural evolution in their runtime call graphs due to workload fluctuations, fault responses, and deployment activities. Despite this complexity, our analysis of over 500,000 production traces from ByteDance reveals a latent regularity: execution paths concentrate around a small set of recurring invocation patterns. However, existing resource management approaches fail to exploit this structure. Industrial autoscalers like Kubernetes HPA ignore inter-service dependencies, while recent academic methods often assume static topologies, rendering them ineffective under dynamic execution contexts. In this work, we propose Morphis, a dependency-aware provisioning framework that unifies pattern-aware trace analysis with global optimization. It introduces structural fingerprinting that decomposes traces into a stable execution backbone and interpretable deviation subgraphs. Then, resource allocation is formulated as a constrained optimization problem over predicted pattern distributions, jointly minimizing aggregate CPU usage while satisfying end-to-end tail-latency SLOs. Our extensive evaluations on the TrainTicket benchmark demonstrate that Morphis reduces CPU consumption by 35-38% compared to state-of-the-art baselines while maintaining 98.8% SLO compliance.
- Abstract(参考訳): 現代のマイクロサービスシステムは、ワークロードの変動、障害応答、デプロイメントアクティビティによって、ランタイムコールグラフに継続的構造的進化を示す。
この複雑さにも拘わらず、ByteDanceから50,000件以上の生産トレースを分析してみると、実行パスは、連続する呼び出しパターンの小さなセットに集中している。
しかし、既存のリソース管理アプローチでは、この構造を活用できない。
Kubernetes HPAのような産業用オートスケーラはサービス間の依存関係を無視するが、最近の学術的手法では静的トポロジを前提としており、動的実行コンテキスト下では効果がない。
本研究では,パターン認識トレース分析とグローバル最適化を統一した依存性認識型プロビジョニングフレームワークであるMorphisを提案する。
これは、トレースを安定した実行バックボーンと解釈可能な逸脱サブグラフに分解する構造的なフィンガープリントを導入する。
次に、予測されたパターン分布に対する制約付き最適化問題としてリソース割り当てを定式化し、終末のテールレイテンシSLOを満足しつつ、集約CPU使用量を最小化する。
TrainTicketベンチマークの広範な評価によると、Morphisは98.8%のSLO準拠を維持しながら、最先端のベースラインに比べてCPU消費を35~38%削減している。
関連論文リスト
- Semantic-Aware Scheduling for GPU Clusters with Large Language Models [60.14838697778884]
我々は、スケジューラと管理するジョブ間のセマンティックギャップを橋渡しするフレームワークであるSchedMateを提案する。
SchedMateは見過ごされ、構造化されていないデータソース(ソースコード、ランタイムログ、履歴ジョブ)から深い洞察を抽出する。
我々は、SchedMateが平均ジョブ完了時間を最大1.91倍に短縮し、スケジューリング性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2025-10-02T02:01:02Z) - CSGO: Generalized Optimization for Cold Start in Wireless Collaborative Edge LLM Systems [62.24576366776727]
本稿では,全体の推論遅延を最小限に抑えるために,遅延を考慮したスケジューリングフレームワークを提案する。
提案手法は,ベースライン戦略と比較して,コールドスタート遅延を著しく低減することを示す。
論文 参考訳(メタデータ) (2025-08-15T07:49:22Z) - Learning Unified System Representations for Microservice Tail Latency Prediction [8.532290784939967]
マイクロサービスアーキテクチャは、スケーラブルなクラウドネイティブアプリケーションを構築するためのデファクトスタンダードになっています。
従来のアプローチでは、要求毎のレイテンシメトリクスに依存しており、過渡的なノイズに非常に敏感です。
我々は,トラフィック側とリソース側の機能を明確に分離し,モデル化するディープラーニングネットワークであるUSRFNetを提案する。
論文 参考訳(メタデータ) (2025-08-03T07:46:23Z) - RLHGNN: Reinforcement Learning-driven Heterogeneous Graph Neural Network for Next Activity Prediction in Business Processes [14.031370458128068]
次のアクティビティ予測は、サービス指向アーキテクチャでビジネスプロセスを最適化する上での課題である。
イベントログを異種プロセスグラフに変換する新しいフレームワークであるRLHGNNを紹介する。
RLHGNNは、最先端のアプローチよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2025-07-03T15:01:08Z) - Thinking Longer, Not Larger: Enhancing Software Engineering Agents via Scaling Test-Time Compute [61.00662702026523]
より大規模なモデルではなく、推論時間の増加を活用する統合されたテスト時間計算スケーリングフレームワークを提案する。
当社のフレームワークには,内部TTCと外部TTCの2つの補完戦略が組み込まれている。
当社の textbf32B モデルは,DeepSeek R1 671B や OpenAI o1 など,はるかに大きなモデルを上回る 46% の課題解決率を実現している。
論文 参考訳(メタデータ) (2025-03-31T07:31:32Z) - Large Language Models as Realistic Microservice Trace Generators [48.730974361862366]
本稿では,大規模言語モデル (LLM) を用いて, 合成作業負荷トレースを生成する手法を提案する。
我々はTraceLLMが様々な条件下で多様なリアルなトレースを生成し、精度と妥当性の両方において既存のアプローチよりも優れていることを示す。
TraceLLMは、キートレース機能を予測したり、欠落したデータを埋め込むといった、下流のトレース関連タスクに適応する。
論文 参考訳(メタデータ) (2024-12-16T12:48:04Z) - Research on the Application of Spark Streaming Real-Time Data Analysis System and large language model Intelligent Agents [1.4582633500696451]
本研究では、ビッグデータ環境におけるリアルタイムデータ分析システムを強化するために、Agent AIとLangGraphの統合について検討する。
提案したフレームワークは、静的で非効率なステートフル計算の限界を克服し、人間の介入の欠如を克服する。
システムアーキテクチャにはApache Spark Streaming、Kafka、LangGraphが組み込まれ、高性能な感情分析システムを構築する。
論文 参考訳(メタデータ) (2024-12-10T05:51:11Z) - A Microservices Identification Method Based on Spectral Clustering for
Industrial Legacy Systems [5.255685751491305]
本稿では,スペクトルグラフ理論に基づくマイクロサービス候補抽出のための自動分解手法を提案する。
提案手法は,ドメインの専門家が関与しなくても,良好な結果が得られることを示す。
論文 参考訳(メタデータ) (2023-12-20T07:47:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。