論文の概要: Analyzing the Performance of Smart Industry 4.0 Applications on Cloud
Computing Systems
- arxiv url: http://arxiv.org/abs/2012.06054v1
- Date: Fri, 11 Dec 2020 00:18:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-14 11:27:26.931437
- Title: Analyzing the Performance of Smart Industry 4.0 Applications on Cloud
Computing Systems
- Title(参考訳): クラウドコンピューティングにおけるスマート産業 4.0 アプリケーションの性能分析
- Authors: Razin Farhan Hussain, Alireza Pakravan, Mohsen Amini Salehi
- Abstract要約: クラウドベースのDeep Neural Network (DNN)アプリケーションは、Industrial 4.0に欠かせない部分になっている。
捕獲されていない場合、品質・オブ・サービス(QoS)の低さや、石油やガス産業といった重要な分野の災害につながる可能性がある。
本研究は,2つの視点から推定時間の記述的分析を行う。
- 参考スコア(独自算出の注目度): 1.292804228022353
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cloud-based Deep Neural Network (DNN) applications that make
latency-sensitive inference are becoming an indispensable part of Industry 4.0.
Due to the multi-tenancy and resource heterogeneity, both inherent to the cloud
computing environments, the inference time of DNN-based applications are
stochastic. Such stochasticity, if not captured, can potentially lead to low
Quality of Service (QoS) or even a disaster in critical sectors, such as Oil
and Gas industry. To make Industry 4.0 robust, solution architects and
researchers need to understand the behavior of DNN-based applications and
capture the stochasticity exists in their inference times. Accordingly, in this
study, we provide a descriptive analysis of the inference time from two
perspectives. First, we perform an application-centric analysis and
statistically model the execution time of four categorically different DNN
applications on both Amazon and Chameleon clouds. Second, we take a
resource-centric approach and analyze a rate-based metric in form of Million
Instruction Per Second (MIPS) for heterogeneous machines in the cloud. This
non-parametric modeling, achieved via Jackknife and Bootstrap re-sampling
methods, provides the confidence interval of MIPS for heterogeneous cloud
machines. The findings of this research can be helpful for researchers and
cloud solution architects to develop solutions that are robust against the
stochastic nature of the inference time of DNN applications in the cloud and
can offer a higher QoS to their users and avoid unintended outcomes.
- Abstract(参考訳): レイテンシに敏感な推論を行うクラウドベースのDeep Neural Network (DNN)アプリケーションは、Industrial 4.0で必須の部分になりつつある。
クラウドコンピューティング環境に固有のマルチテナントとリソースの不均一性のため、DNNベースのアプリケーションの推論時間は確率的である。
このような確率性は、捕まらなければ、低品質のサービス(qos)や、石油やガス産業のような重要な分野における災害につながる可能性がある。
産業4.0を堅牢にするためには、ソリューションアーキテクトと研究者は、DNNベースのアプリケーションの振る舞いを理解し、推論時間内に確率性を捉える必要がある。
そこで本研究では,2つの視点から推論時間の記述的分析を行った。
まず、アプリケーション中心の分析を行い、統計的に異なる4つのdnnアプリケーションのamazonおよびchameleonクラウド上での実行時間をモデル化する。
第二に、リソース中心のアプローチを採り、クラウド上の異種マシンに対するMIPS(Million Instruction Per Second)という形でレートベースのメトリクスを分析する。
この非パラメトリックモデリングはJackknifeとBootstrapの再サンプリング手法によって達成され、異種クラウドマシンに対するMIPSの信頼区間を提供する。
この研究の結果は、研究者やクラウドソリューションアーキテクトがクラウド上のDNNアプリケーションの推論時間の確率的性質に対して堅牢なソリューションを開発し、ユーザに対してより高いQoSを提供し、意図しない結果を避けるのに役立つ。
関連論文リスト
- Alioth: A Machine Learning Based Interference-Aware Performance Monitor
for Multi-Tenancy Applications in Public Cloud [15.942285615596566]
パブリッククラウドにおけるマルチテナントは、共有リソースのコロケーション干渉を引き起こす可能性がある。
クラウドアプリケーションの性能劣化をモニタリングする新しい機械学習フレームワークAliothを提案する。
Aliothの平均絶対誤差は5.29%のオフライン、10.8%である。
論文 参考訳(メタデータ) (2023-07-18T03:34:33Z) - Serving Graph Neural Networks With Distributed Fog Servers For Smart IoT
Services [23.408109000977987]
グラフニューラルネットワーク(GNN)は,グラフ構造上の潜在表現を抽出する能力に優れていたため,様々なアプリケーションへの関心が高まっている。
Fographは、IoTデータソースに近い複数のフォグノードの多様な動的リソースを活用する、分散リアルタイムGNN推論フレームワークである。
プロトタイプに基づく評価とケーススタディにより、Fographは最先端のクラウドサービスと霧の配置を最大5.39倍の高速化と6.84倍のスループット向上で大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2023-07-04T12:30:01Z) - Spatial-SpinDrop: Spatial Dropout-based Binary Bayesian Neural Network
with Spintronics Implementation [1.3603499630771996]
本稿では,スピントロニクスデバイスを備えた空間降下型BayNNであるMC-SpatialDropoutを紹介する。
ネットワーク層当たりのドロップアウトモジュールの数は、9倍の9.11倍の9.11倍の9.11倍のエネルギー消費率で減少するが、それでも同等の性能と不確実性の評価を達成している。
論文 参考訳(メタデータ) (2023-06-16T21:38:13Z) - Fluid Batching: Exit-Aware Preemptive Serving of Early-Exit Neural
Networks on Edge NPUs [74.83613252825754]
スマートエコシステム(smart ecosystems)"は、スタンドアロンではなく、センセーションが同時に行われるように形成されています。
これはデバイス上の推論パラダイムを、エッジにニューラル処理ユニット(NPU)をデプロイする方向にシフトしている。
そこで本研究では,実行時のプリエンプションが到着・終了プロセスによってもたらされる動的性を考慮に入れた,新しい早期終了スケジューリングを提案する。
論文 参考訳(メタデータ) (2022-09-27T15:04:01Z) - MAPLE-X: Latency Prediction with Explicit Microprocessor Prior Knowledge [87.41163540910854]
ディープニューラルネットワーク(DNN)レイテンシのキャラクタリゼーションは、時間を要するプロセスである。
ハードウェアデバイスの事前知識とDNNアーキテクチャのレイテンシを具体化し,MAPLEを拡張したMAPLE-Xを提案する。
論文 参考訳(メタデータ) (2022-05-25T11:08:20Z) - Auto-Split: A General Framework of Collaborative Edge-Cloud AI [49.750972428032355]
本稿では,Huawei Cloudのエッジクラウド共同プロトタイプであるAuto-Splitの技法と技術実践について述べる。
私たちの知る限りでは、Deep Neural Network(DNN)分割機能を提供する既存の産業製品はありません。
論文 参考訳(メタデータ) (2021-08-30T08:03:29Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - SPINN: Synergistic Progressive Inference of Neural Networks over Device
and Cloud [13.315410752311768]
一般的な選択肢は、CNN処理をクラウドベースの強力なサーバにオフロードすることである。
SPINNは、同期型デバイスクラウドとプログレッシブ推論手法を併用した分散推論システムである。
これは、不確実な接続条件下での堅牢な操作と、クラウド中心の実行と比較してかなりの省エネを提供する。
論文 参考訳(メタデータ) (2020-08-14T15:00:19Z) - Trust-Based Cloud Machine Learning Model Selection For Industrial IoT
and Smart City Services [5.333802479607541]
クラウドサービスプロバイダがリソース制約のあるデバイスからビッグデータを収集し、機械学習予測モデルを構築するパラダイムを考察する。
提案手法は,MLモデルの信頼度を最大化する知的時間再構成を含む。
その結果,選択したモデルの信頼度は,ILPを用いた結果に比べて0.7%から2.53%低かった。
論文 参考訳(メタデータ) (2020-08-11T23:58:03Z) - Deep Learning for Ultra-Reliable and Low-Latency Communications in 6G
Networks [84.2155885234293]
まず,データ駆動型教師付き深層学習と深部強化学習をURLLCに適用する方法を概説する。
このようなオープンな問題に対処するために、デバイスインテリジェンス、エッジインテリジェンス、およびURLLCのためのクラウドインテリジェンスを可能にするマルチレベルアーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-02-22T14:38:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。