論文の概要: Key Considerations for Auto-Scaling: Lessons from Benchmark Microservices
- arxiv url: http://arxiv.org/abs/2510.02585v1
- Date: Thu, 02 Oct 2025 21:44:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 16:35:52.189966
- Title: Key Considerations for Auto-Scaling: Lessons from Benchmark Microservices
- Title(参考訳): 自動スケーリングの要点: ベンチマークマイクロサービスからの教訓
- Authors: Majid Dashtbani, Ladan Tahvildari,
- Abstract要約: ベンチマークにいくつかの最先端のオートスケーリング手法を適用することにより,実用的なオートスケーリングの考察の集合を同定する。
私たちは、ソフトウェアライフサイクル中にいつ発生するかに基づいて、問題を分類します。
以上の結果から,重要なライフサイクル上の問題を見越すことで,オートスケーラのパフォーマンスが低下すると同時に,それに対応することで,より安定かつ効率的なスケーリングが可能になることが示唆された。
- 参考スコア(独自算出の注目度): 0.28647133890966986
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Microservices have become the dominant architectural paradigm for building scalable and modular cloud-native systems. However, achieving effective auto-scaling in such systems remains a non-trivial challenge, as it depends not only on advanced scaling techniques but also on sound design, implementation, and deployment practices. Yet, these foundational aspects are often overlooked in existing benchmarks, making it difficult to evaluate autoscaling methods under realistic conditions. In this paper, we identify a set of practical auto-scaling considerations by applying several state-of-the-art autoscaling methods to widely used microservice benchmarks. To structure these findings, we classify the issues based on when they arise during the software lifecycle: Architecture, Implementation, and Deployment. The Architecture phase covers high-level decisions such as service decomposition and inter-service dependencies. The Implementation phase includes aspects like initialization overhead, metrics instrumentation, and error propagation. The Deployment phase focuses on runtime configurations such as resource limits and health checks. We validate these considerations using the Sock-Shop benchmark and evaluate diverse auto-scaling strategies, including threshold-based, control-theoretic, learning-based, black-box optimization, and dependency-aware approaches. Our findings show that overlooking key lifecycle concerns can degrade autoscaler performance, while addressing them leads to more stable and efficient scaling. These results underscore the importance of lifecycle-aware engineering for unlocking the full potential of auto-scaling in microservice-based systems.
- Abstract(参考訳): マイクロサービスは、スケーラブルでモジュール化されたクラウドネイティブシステムを構築する上で、主要なアーキテクチャパラダイムになっています。
しかし、このようなシステムにおいて効果的な自動スケーリングを実現することは、高度なスケーリング技術だけでなく、音設計、実装、デプロイメントプラクティスにも依存するため、非常に難しい課題である。
しかし、これらの基礎的な側面は、しばしば既存のベンチマークで見落とされ、現実的な条件下でのオートスケーリング手法の評価が困難になる。
本稿では,マイクロサービスベンチマークに最先端のオートスケーリング手法を適用して,実用的なオートスケーリングの考察を行う。
これらの結果を構築するために、ソフトウェアライフサイクル中にいつ発生するかに基づいて、アーキテクチャ、実装、デプロイという課題を分類します。
アーキテクチャフェーズは、サービス分解やサービス間依存関係といった高レベルな決定をカバーします。
実装フェーズには初期化オーバーヘッド、メトリクスインスツルメンテーション、エラーの伝搬といった側面が含まれる。
Deploymentフェーズは、リソース制限やヘルスチェックなどのランタイム設定に重点を置いている。
Sock-Shopベンチマークを用いてこれらの考察を検証し、しきい値ベース、制御理論、学習ベース、ブラックボックス最適化、依存性認識アプローチを含む多様な自動スケーリング戦略を評価する。
以上の結果から,重要なライフサイクル上の問題を見越すことで,オートスケーラのパフォーマンスが低下すると同時に,それに対応することで,より安定かつ効率的なスケーリングが可能になることが示唆された。
これらの結果は、マイクロサービスベースのシステムにおける自動スケーリングの可能性を解放するためのライフサイクルアウェアエンジニアリングの重要性を強調している。
関連論文リスト
- Feedback-Driven Tool-Use Improvements in Large Language Models via Automated Build Environments [70.42705564227548]
大規模言語モデル(LLM)のための環境自動構築パイプラインを提案する。
これにより、外部ツールに頼ることなく、詳細な測定可能なフィードバックを提供する高品質なトレーニング環境の作成が可能になる。
また、ツール使用の精度とタスク実行の完全性の両方を評価する検証可能な報酬機構も導入する。
論文 参考訳(メタデータ) (2025-08-12T09:45:19Z) - Machine Learning Pipeline for Software Engineering: A Systematic Literature Review [0.0]
この系統的な文献レビューは、ソフトウェア工学(SE)用に設計された最先端の機械学習パイプラインを検証している。
この結果から,データバランシングのためのSMOTEなどの堅牢な前処理がモデルの信頼性を向上させることが示唆された。
ランダムフォレストやグラディエントブースティングのようなアンサンブルメソッドはタスク間でパフォーマンスを支配します。
Best Arithmetic Mean (BAM)のような新しいメトリクスはニッチなアプリケーションに現れている。
論文 参考訳(メタデータ) (2025-07-31T15:37:30Z) - MONO2REST: Identifying and Exposing Microservices: a Reusable RESTification Approach [0.7499722271664147]
多くの組織は、レガシーなモノリシックシステムからアーキテクチャスタイルへの移行を追求しています。
このプロセスは困難で、リスクが高く、時間集約的であり、失敗しがちですが、いくつかの組織では、移行プロセスを構築するために必要な資金、時間、専門知識が不足しています。
移行することなく、レガシーシステムをマイクロサービスアプリケーションとして公開することを提案する。
論文 参考訳(メタデータ) (2025-03-27T14:10:33Z) - Fast and Efficient What-If Analyses of Invocation Overhead and Transactional Boundaries to Support the Migration to Microservices [0.3222802562733786]
マイクロサービスアーキテクチャは、ソフトウェアシステムのアジリティと保守性を改善する。
既存のソフトウェアをプロセス外のコンポーネントに分解することは、機能しない特性に深刻な影響を与える可能性がある。
What-if分析は異なるシナリオを探索し、反復的かつインクリメンタルな方法でサービス境界を開発することを可能にする。
論文 参考訳(メタデータ) (2025-01-30T09:42:56Z) - Decomposable Transformer Point Processes [2.1756081703276]
本稿では,注目に基づくアーキテクチャの利点の維持と,薄型化アルゴリズムの限界を回避する枠組みを提案する。
提案手法は,その履歴が与えられたシーケンスの次の事象を予測する上で,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-09-26T13:22:58Z) - Benchmarks as Microscopes: A Call for Model Metrology [76.64402390208576]
現代の言語モデル(LM)は、能力評価において新たな課題を提起する。
メトリクスに自信を持つためには、モデルミアロジの新たな規律が必要です。
論文 参考訳(メタデータ) (2024-07-22T17:52:12Z) - POGEMA: A Benchmark Platform for Cooperative Multi-Agent Pathfinding [76.67608003501479]
POGEMAは、学習のための高速環境、問題インスタンスジェネレータ、可視化ツールキットを含む、総合的なツールセットである。
また、プライマリ評価指標に基づいて計算されるドメイン関連メトリクスの範囲を規定する評価プロトコルを導入し、定義する。
この比較の結果は、様々な最先端のMARL、検索ベース、ハイブリッド手法を含む。
論文 参考訳(メタデータ) (2024-07-20T16:37:21Z) - A Microservices Identification Method Based on Spectral Clustering for
Industrial Legacy Systems [5.255685751491305]
本稿では,スペクトルグラフ理論に基づくマイクロサービス候補抽出のための自動分解手法を提案する。
提案手法は,ドメインの専門家が関与しなくても,良好な結果が得られることを示す。
論文 参考訳(メタデータ) (2023-12-20T07:47:01Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z) - CoreDiag: Eliminating Redundancy in Constraint Sets [68.8204255655161]
最小コア(最小非冗長制約集合)の決定に利用できる新しいアルゴリズムを提案する。
このアルゴリズムは、冗長性の度合いが高い分散知識工学シナリオにおいて特に有用である。
本手法の適用可能性を示すために, 商業的構成知識ベースを用いた実証的研究を実施した。
論文 参考訳(メタデータ) (2021-02-24T09:16:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。