論文の概要: Multi-Dimensional Autoscaling of Stream Processing Services on Edge Devices
- arxiv url: http://arxiv.org/abs/2510.06882v1
- Date: Wed, 08 Oct 2025 10:51:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.446178
- Title: Multi-Dimensional Autoscaling of Stream Processing Services on Edge Devices
- Title(参考訳): エッジデバイス上でのストリーム処理サービスの多次元自動スケーリング
- Authors: Boris Sedlak, Philipp Raith, Andrea Morichetta, Víctor Casamayor Pujol, Schahram Dustdar,
- Abstract要約: 我々は多次元オートスケーリングプラットフォーム(MUDAP)を導入し、サービスレベルとリソースレベルの両方の細粒度の垂直スケーリングをサポートする。
本稿では、サービス間の実行を最適化するために、構造知識の回帰分析(RASK)に基づくスケーリングエージェントを提案する。
- 参考スコア(独自算出の注目度): 5.831429356033195
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Edge devices have limited resources, which inevitably leads to situations where stream processing services cannot satisfy their needs. While existing autoscaling mechanisms focus entirely on resource scaling, Edge devices require alternative ways to sustain the Service Level Objectives (SLOs) of competing services. To address these issues, we introduce a Multi-dimensional Autoscaling Platform (MUDAP) that supports fine-grained vertical scaling across both service- and resource-level dimensions. MUDAP supports service-specific scaling tailored to available parameters, e.g., scale data quality or model size for a particular service. To optimize the execution across services, we present a scaling agent based on Regression Analysis of Structural Knowledge (RASK). The RASK agent efficiently explores the solution space and learns a continuous regression model of the processing environment for inferring optimal scaling actions. We compared our approach with two autoscalers, the Kubernetes VPA and a reinforcement learning agent, for scaling up to 9 services on a single Edge device. Our results showed that RASK can infer an accurate regression model in merely 20 iterations (i.e., observe 200s of processing). By increasingly adding elasticity dimensions, RASK sustained the highest request load with 28% less SLO violations, compared to baselines.
- Abstract(参考訳): エッジデバイスはリソースが限られており、ストリーム処理サービスが彼らのニーズを満たすことができない状況に必然的に結びつく。
既存の自動スケーリングメカニズムはリソースのスケーリングに完全に重点を置いているが、Edgeデバイスは競合するサービスのサービスレベルオブジェクト(SLO)を維持するための代替手段を必要としている。
これらの問題に対処するために、サービスレベルとリソースレベルの両方の詳細な垂直スケーリングをサポートするMulti-dimensional Autoscaling Platform(MUDAP)を導入します。
MUDAPは、特定のサービスのスケールデータ品質やモデルサイズなど、利用可能なパラメータに合わせて、サービス固有のスケーリングをサポートする。
サービス間での実行を最適化するために,構造知識の回帰分析(RASK)に基づくスケーリングエージェントを提案する。
RASKエージェントは、解空間を効率的に探索し、最適なスケーリングアクションを推測するための処理環境の連続回帰モデルを学ぶ。
当社のアプローチを、Kubernetes VPAと強化学習エージェントという2つのオートスケーラと比較して、単一のEdgeデバイス上で最大9つのサービスをスケールアップしました。
その結果,RASKは20回(つまり200回の処理を観測する)で正確な回帰モデルを推定できることがわかった。
弾力性ディメンションの増大により、RASKはベースラインよりも28%少ないSLO違反で要求負荷が最も高かった。
関連論文リスト
- TSLA: A Task-Specific Learning Adaptation for Semantic Segmentation on Autonomous Vehicles Platform [60.378160142579]
NVIDIAtextsuperscripttextregistered DRIVE PX 2.0のようなターゲットプラットフォームにデプロイする場合、計算コストを考慮することが重要です。
我々の目標は、自律運転ハードウェアの計算能力と特定のシナリオに応じてセマンティックセグメンテーションネットワークをカスタマイズすることである。
論文 参考訳(メタデータ) (2025-08-17T08:09:13Z) - PRISM: Distributed Inference for Foundation Models at Edge [73.54372283220444]
PRISMは、エッジデバイス上での分散トランスフォーマー推論のための通信効率と計算アウェア戦略である。
ViT,BERT,GPT-2のPRISMを多種多様なデータセットで評価した。
論文 参考訳(メタデータ) (2025-07-16T11:25:03Z) - Multi-dimensional Autoscaling of Processing Services: A Comparison of Agent-based Methods [5.201504495733271]
この作業では、制約のある環境で要求を満たすのを最大化するエージェントベースのオートスケーリングフレームワークを導入している。
我々は,アクティブ推論,ディープQネットワーク,構造知識の分析,ディープアクティブ推論の4種類のスケーリングエージェントを比較した。
論文 参考訳(メタデータ) (2025-06-12T07:20:26Z) - DARS: Dynamic Action Re-Sampling to Enhance Coding Agent Performance by Adaptive Tree Traversal [55.13854171147104]
大規模言語モデル(LLM)は、自然言語処理、データ分析、ソフトウェア開発など、さまざまな領域に革命をもたらした。
符号化エージェントのための新しい推論時間計算スケーリングアプローチである動的アクション再サンプリング(DARS)を提案する。
我々は、SWE-Bench Liteベンチマークに対する我々のアプローチを評価し、このスケーリング戦略がClude 3.5 Sonnet V2で55%のパス@kスコアを達成したことを実証した。
論文 参考訳(メタデータ) (2025-03-18T14:02:59Z) - STaleX: A Spatiotemporal-Aware Adaptive Auto-scaling Framework for Microservices [3.0846824529023382]
本稿では,これらの課題に対処するための制御理論,機械学習,時相の組み合わせを提案する。
本稿では,機能を統合し,リアルタイムリソース調整を可能にする適応型自動スケーリングフレームワークSTXaleを提案する。
当社のフレームワークは、サービス仕様やサービス間の依存関係を含む機能に加えて、ワークロードの時間的変動も考慮しています。
論文 参考訳(メタデータ) (2025-01-30T20:19:13Z) - DeepScaler: Holistic Autoscaling for Microservices Based on
Spatiotemporal GNN with Adaptive Graph Learning [4.128665560397244]
本稿では,ディープラーニングに基づく総合的オートスケーリング手法であるDeepScalerを提案する。
サービスレベルの合意(SLA)とコスト効率を最適化するために、サービス依存関係に対処することに焦点を当てています。
実験により,本手法はマイクロサービスのより効率的な自動スケーリング機構を実装していることが示された。
論文 参考訳(メタデータ) (2023-09-02T08:22:21Z) - V2N Service Scaling with Deep Reinforcement Learning [0.0]
我々は、エッジコンピューティングの垂直スケーリングにDeep Reinforcement Learning(DRL)を使用し、車両間通信をサポートする。
DDPGは既存のソリューションよりも優れており、アクティブCPUの平均数は23%減少し、長期報酬は24%増加した。
論文 参考訳(メタデータ) (2023-01-30T23:13:18Z) - Multi-Exit Semantic Segmentation Networks [78.44441236864057]
本稿では,最先端セグメンテーションモデルをMESSネットワークに変換するフレームワークを提案する。
パラメトリド早期出口を用いた特別訓練されたCNNは、より簡単なサンプルの推測時に、その深さに沿って保存する。
接続されたセグメンテーションヘッドの数、配置、アーキテクチャとエグジットポリシーを併用して、デバイス機能とアプリケーション固有の要件に適応する。
論文 参考訳(メタデータ) (2021-06-07T11:37:03Z) - Joint Parameter-and-Bandwidth Allocation for Improving the Efficiency of
Partitioned Edge Learning [73.82875010696849]
機械学習アルゴリズムは、人工知能(AI)モデルをトレーニングするために、ネットワークエッジにデプロイされる。
本稿では,パラメータ(計算負荷)割り当てと帯域幅割り当ての新しい共同設計に焦点を当てる。
論文 参考訳(メタデータ) (2020-03-10T05:52:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。