論文の概要: Research on Efficiency Analysis of Microservices
- arxiv url: http://arxiv.org/abs/2303.15490v1
- Date: Tue, 21 Mar 2023 02:00:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-31 16:08:54.805984
- Title: Research on Efficiency Analysis of Microservices
- Title(参考訳): マイクロサービスの効率解析に関する研究
- Authors: Abel C. H. Chen
- Abstract要約: 本研究では,従来の大規模サービスをnに分割した場合の効率差を分析するために,待ち行列モデルに基づく効率解析フレームワークを提案する。
複数のサービスに分割することで、システム効率が効果的に向上し、大規模サービスの時間が複数に均等に分散されている場合、最高の改善効果が達成できることを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the maturity of web services, containers, and cloud computing
technologies, large services in traditional systems (e.g. the computation
services of machine learning and artificial intelligence) are gradually being
broken down into many microservices to increase service reusability and
flexibility. Therefore, this study proposes an efficiency analysis framework
based on queuing models to analyze the efficiency difference of breaking down
traditional large services into n microservices. For generalization, this study
considers different service time distributions (e.g. exponential distribution
of service time and fixed service time) and explores the system efficiency in
the worst-case and best-case scenarios through queuing models (i.e. M/M/1
queuing model and M/D/1 queuing model). In each experiment, it was shown that
the total time required for the original large service was higher than that
required for breaking it down into multiple microservices, so breaking it down
into multiple microservices can improve system efficiency. It can also be
observed that in the best-case scenario, the improvement effect becomes more
significant with an increase in arrival rate. However, in the worst-case
scenario, only slight improvement was achieved. This study found that breaking
down into multiple microservices can effectively improve system efficiency and
proved that when the computation time of the large service is evenly
distributed among multiple microservices, the best improvement effect can be
achieved. Therefore, this study's findings can serve as a reference guide for
future development of microservice architecture.
- Abstract(参考訳): Webサービス、コンテナ、クラウドコンピューティング技術の成熟に伴い、従来のシステム(例えば、機械学習と人工知能の計算サービス)の大規模サービスは、サービス再利用性と柔軟性を高めるために、徐々に多くのマイクロサービスに分解されつつある。
そこで本研究では,従来の大規模サービスをnマイクロサービスに分解する効率差を分析するため,キューモデルに基づく効率分析フレームワークを提案する。
一般化のために,本研究では,異なるサービス時間分布(例えば,サービス時間と固定サービス時間の指数分布)を考察し,待ち行列モデル(M/M/1待ち行列モデルとM/D/1待ち行列モデル)を用いて,最悪のケースとベストケースシナリオにおけるシステム効率について検討する。
各実験では、元の大規模サービスに必要な総時間は、複数のマイクロサービスに分割するために必要な時間よりも高く、複数のマイクロサービスに分割することで、システムの効率が向上した。
また, ベストケースシナリオでは, 到着率の増加とともに改善効果がより重要となることも観察できる。
しかし、最悪の場合、わずかな改善しか得られなかった。
本研究では,複数のマイクロサービスに分割することでシステム効率を効果的に向上できることを示すとともに,大規模サービスの計算時間が複数のマイクロサービスに均等に分散された場合,最も優れた改善効果が得られることを示す。
そこで本研究では,マイクロサービスアーキテクチャの今後の発展のためのリファレンスガイドとして,この知見が有効である。
関連論文リスト
- An Infrastructure Cost Optimised Algorithm for Partitioning of Microservices [20.638612359627952]
アプリケーションをクラウドに移行することは、ソフトウェア業界で広く採用されているため、分散クラウドにデプロイするアプリケーションにとって、最も適しており、広く受け入れられているアーキテクチャパターンであることが証明されている。
信頼性や障害分離,スケーラビリティ,アセットメンテナンスの容易さやオーナシップ境界の明確化など,技術的メリットの両面から,その有効性を実現しています。
場合によっては、既存のアプリケーションをアーキテクチャに移行するという複雑さは、圧倒的に複雑でコストがかかります。
論文 参考訳(メタデータ) (2024-08-13T02:08:59Z) - Digital Twin-assisted Reinforcement Learning for Resource-aware
Microservice Offloading in Edge Computing [12.972771759204264]
本稿では,深部強化学習(DRL)とディジタルツイン技術を活用した新しいマイクロサービスオフロードアルゴリズムDTDRLMOを紹介する。
具体的には、協調エッジコンピューティングのエッジノード負荷の変化とネットワーク条件をリアルタイムに予測し、適応するためにデジタルツイン技術を用いる。
このアプローチは効率的なオフロード計画の生成を可能にし、各マイクロサービスに最適なエッジノードを選択する。
論文 参考訳(メタデータ) (2024-03-13T16:44:36Z) - Migration to Microservices: A Comparative Study of Decomposition
Strategies and Analysis Metrics [0.5076419064097734]
本稿では,モノリシックアプリケーションにおけるポテンシャルを識別する新しいクラスタリング手法を提案する。
本手法では,クラス間の静的解析,構造,意味的関係を考慮した密度に基づくクラスタリングアルゴリズムを用いる。
論文 参考訳(メタデータ) (2024-02-13T14:15:00Z) - TranDRL: A Transformer-Driven Deep Reinforcement Learning Enabled Prescriptive Maintenance Framework [58.474610046294856]
産業システムは、運用効率を高め、ダウンタイムを減らすための信頼性の高い予測保守戦略を要求する。
本稿では,Transformerモデルに基づくニューラルネットワークと深部強化学習(DRL)アルゴリズムの機能を活用し,システムの保守動作を最適化する統合フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-29T02:27:54Z) - Multiagent Reinforcement Learning with an Attention Mechanism for
Improving Energy Efficiency in LoRa Networks [52.96907334080273]
ネットワーク規模が大きくなるにつれて、パケット衝突によるLoRaネットワークのエネルギー効率は急激に低下する。
マルチエージェント強化学習(MALoRa)に基づく伝送パラメータ割り当てアルゴリズムを提案する。
シミュレーションの結果,MALoRaはベースラインアルゴリズムと比較してシステムEEを著しく改善することがわかった。
論文 参考訳(メタデータ) (2023-09-16T11:37:23Z) - Solving Large-scale Spatial Problems with Convolutional Neural Networks [88.31876586547848]
大規模空間問題に対する学習効率を向上させるために移動学習を用いる。
畳み込みニューラルネットワーク (CNN) は, 信号の小さな窓で訓練できるが, 性能劣化の少ない任意の大信号で評価できる。
論文 参考訳(メタデータ) (2023-06-14T01:24:42Z) - Does Microservices Adoption Impact the Development Velocity? A Cohort
Study. A Registered Report [4.866714740906538]
本研究の目的は,開発速度に及ぼす効果を検討することである。
この調査は、当初から採用されていたGitHubプロジェクトと、モノリシックアーキテクチャを使用した同様のプロジェクトを比較している。
論文 参考訳(メタデータ) (2023-06-03T07:27:01Z) - Towards Compute-Optimal Transfer Learning [82.88829463290041]
我々は、事前訓練されたモデルのゼロショット構造化プルーニングにより、性能を最小限に抑えて計算効率を向上させることができると主張している。
その結果,事前訓練されたモデルの畳み込み畳み込みフィルタは,低計算条件下で20%以上の性能向上をもたらす可能性が示唆された。
論文 参考訳(メタデータ) (2023-04-25T21:49:09Z) - MicroRes: Versatile Resilience Profiling in Microservices via Degradation Dissemination Indexing [29.456286275972474]
マイクロサービスのレジリエンス — 障害から回復し、信頼性と応答性を備えたサービスを提供し続ける能力 — は、クラウドベンダにとって極めて重要です。
現在のプラクティスは、特定のマイクロサービスシステムに手動で設定された特定のルールに依存しており、結果として労働強度と柔軟性の問題が発生します。
私たちの洞察では、レジリエントなデプロイメントは、システムパフォーマンスからユーザ対応メトリクスへの劣化の拡散を効果的に防ぎ、後者はサービス品質に影響を与えます。
論文 参考訳(メタデータ) (2022-12-25T03:56:42Z) - Large Scale Mask Optimization Via Convolutional Fourier Neural Operator
and Litho-Guided Self Training [54.16367467777526]
マスクタスクを効率的に学習できる畳み込みニューラルネットワーク(CFCF)を提案する。
機械学習ベースのフレームワークが初めて、最先端の数値マスクデータセットを上回った。
論文 参考訳(メタデータ) (2022-07-08T16:39:31Z) - FedDUAP: Federated Learning with Dynamic Update and Adaptive Pruning
Using Shared Data on the Server [64.94942635929284]
フェデレーテッド・ラーニング(FL)は2つの重要な課題、すなわち限られた計算資源と訓練効率の低下に悩まされている。
本稿では,サーバ上の不感なデータとエッジデバイスの分散データを利用する新しいFLフレームワークであるFedDUAPを提案する。
提案するFLモデルであるFedDUAPは,2つの元の手法を統合することで,精度(最大4.8%),効率(最大2.8倍),計算コスト(最大61.9%)において,ベースラインアプローチを著しく上回っている。
論文 参考訳(メタデータ) (2022-04-25T10:00:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。