論文の概要: AI Back-End as a Service for Learning Switching of Mobile Apps between
the Fog and the Cloud
- arxiv url: http://arxiv.org/abs/2110.00836v1
- Date: Sat, 2 Oct 2021 16:21:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-05 15:26:54.398988
- Title: AI Back-End as a Service for Learning Switching of Mobile Apps between
the Fog and the Cloud
- Title(参考訳): フォッグとクラウド間のモバイルアプリの切り替え学習サービスとしてのAIバックエンド
- Authors: Dionysis Athanasopoulos and Dewei Liu
- Abstract要約: 研究の問題は、バックエンドのインスタンス間でアプリの切り替えを動的に決定できるかどうかである。
サービスインスタンスの応答時間の機械学習モデルをトレーニングするAIアプローチにコントリビュートする。
当社のアプローチでは、バックエンド・アズ・ア・サービスから、最低応答時間を達成する適切なエッジ/リモートインスタンスを実行時に自己決定するサービスとしてのAIセルフバック・アズ・ア・サービスに拡張しています。
- 参考スコア(独自算出の注目度): 3.198144010381572
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given that cloud servers are usually remotely located from the devices of
mobile apps, the end-users of the apps can face delays. The Fog has been
introduced to augment the apps with machines located at the network edge close
to the end-users. However, edge machines are usually resource constrained.
Thus, the execution of online data-analytics on edge machines may not be
feasible if the time complexity of the data-analytics algorithm is high. To
overcome this, multiple instances of the back-end should be deployed on edge
and remote machines. In this case, the research question is how the switching
of the app among the instances of the back-end can be dynamically decided based
on the response time of the service instances. To answer this, we contribute an
AI approach that trains machine-learning models of the response time of service
instances. Our approach extends a back-end as a service into an AI
self-back-end as a service that self-decides at runtime the right edge/remote
instance that achieves the lowest response-time. We evaluate the accuracy and
the efficiency of our approach by using real-word machine-learning datasets on
an existing auction app.
- Abstract(参考訳): クラウドサーバは通常、モバイルアプリのデバイスからリモートに配置されているため、アプリケーションのエンドユーザは遅延に直面する可能性がある。
Fogは、エンドユーザーに近いネットワークエッジに位置するマシンでアプリを強化するために導入された。
しかし、エッジマシンは通常リソースが制限される。
したがって、データ分析アルゴリズムの時間的複雑さが高い場合、エッジマシン上でのオンラインデータ分析の実行は不可能である。
これを解決するためには、バックエンドの複数のインスタンスをエッジとリモートマシンにデプロイする必要がある。
この場合、調査課題は、サービスインスタンスの応答時間に基づいて、バックエンドのインスタンス間でアプリの切り替えをどのように動的に決定するかである。
これに対応するために、私たちは、サービスインスタンスの応答時間の機械学習モデルをトレーニングするAIアプローチに貢献します。
当社のアプローチでは、バックエンド・アズ・ア・サービスから、最低応答時間を達成する適切なエッジ/リモートインスタンスを実行時に自己決定するAIセルフバック・アズ・ア・サービスに拡張しています。
既存のオークションアプリでリアルタイム機械学習データセットを用いて,提案手法の正確性と効率を評価する。
関連論文リスト
- Autonomous Vehicle Controllers From End-to-End Differentiable Simulation [60.05963742334746]
そこで我々は,AVコントローラのトレーニングにAPG(analytic Policy gradients)アプローチを適用可能なシミュレータを提案し,その設計を行う。
提案するフレームワークは, エージェントがより根底的なポリシーを学ぶのを助けるために, 環境力学の勾配を役立てる, エンド・ツー・エンドの訓練ループに, 微分可能シミュレータを組み込む。
ダイナミクスにおけるパフォーマンスとノイズに対する堅牢性の大幅な改善と、全体としてより直感的なヒューマンライクな処理が見られます。
論文 参考訳(メタデータ) (2024-09-12T11:50:06Z) - Efficient Asynchronous Federated Learning with Sparsification and
Quantization [55.6801207905772]
フェデレートラーニング(FL)は、生データを転送することなく、機械学習モデルを協調的にトレーニングするために、ますます注目を集めている。
FLは一般的に、モデルトレーニングの全プロセス中にパラメータサーバーと多数のエッジデバイスを利用する。
TEASQ-Fedは、エッジデバイスを利用して、タスクに積極的に適用することで、トレーニングプロセスに非同期に参加する。
論文 参考訳(メタデータ) (2023-12-23T07:47:07Z) - Alioth: A Machine Learning Based Interference-Aware Performance Monitor
for Multi-Tenancy Applications in Public Cloud [15.942285615596566]
パブリッククラウドにおけるマルチテナントは、共有リソースのコロケーション干渉を引き起こす可能性がある。
クラウドアプリケーションの性能劣化をモニタリングする新しい機械学習フレームワークAliothを提案する。
Aliothの平均絶対誤差は5.29%のオフライン、10.8%である。
論文 参考訳(メタデータ) (2023-07-18T03:34:33Z) - MAPLE-Edge: A Runtime Latency Predictor for Edge Devices [80.01591186546793]
汎用ハードウェアの最先端遅延予測器であるMAPLEのエッジデバイス指向拡張であるMAPLE-Edgeを提案する。
MAPLEと比較して、MAPLE-Edgeはより小さなCPUパフォーマンスカウンタを使用して、ランタイムとターゲットデバイスプラットフォームを記述することができる。
また、共通ランタイムを共有するデバイスプール上でトレーニングを行うMAPLEとは異なり、MAPLE-Edgeは実行時に効果的に一般化できることを示す。
論文 参考訳(メタデータ) (2022-04-27T14:00:48Z) - Auto-Split: A General Framework of Collaborative Edge-Cloud AI [49.750972428032355]
本稿では,Huawei Cloudのエッジクラウド共同プロトタイプであるAuto-Splitの技法と技術実践について述べる。
私たちの知る限りでは、Deep Neural Network(DNN)分割機能を提供する既存の産業製品はありません。
論文 参考訳(メタデータ) (2021-08-30T08:03:29Z) - Automated Machine Learning Techniques for Data Streams [91.3755431537592]
本稿では、最先端のオープンソースAutoMLツールを調査し、ストリームから収集したデータに適用し、時間とともにパフォーマンスがどのように変化するかを測定する。
この結果から,既製のAutoMLツールで十分な結果が得られることが示されたが,概念ドリフトや検出,適応といった手法が適用されれば,予測精度を時間とともに維持することが可能になる。
論文 参考訳(メタデータ) (2021-06-14T11:42:46Z) - DeepRT: A Soft Real Time Scheduler for Computer Vision Applications on
the Edge [17.725750510361884]
本稿では,データに対する推論を行うソフトリアルタイム要求を行うアプリケーションについて述べる。
DeepRTは、システム全体のスループットを高く保ちながら、要求に遅延を保証する。
評価の結果,DeepRTは納期ミス数やスループットの点で最先端の作業よりも優れていた。
論文 参考訳(メタデータ) (2021-05-05T00:08:17Z) - Split Computing and Early Exiting for Deep Learning Applications: Survey
and Research Challenges [18.103754866476088]
我々はスプリットコンピューティング(SC)とアーリーエグジット(EE)戦略における技術の現状を包括的に調査する。
近年,ディープニューラルネットワークを,モバイルデバイスとエッジデバイスでそれぞれ実行されるヘッドモデルとテールモデルに分割する手法が提案されている。
EEは、アーキテクチャの初期に複数の"出口"を示すようにモデルを訓練し、それぞれが目標の精度をますます高めている。
論文 参考訳(メタデータ) (2021-03-08T01:47:20Z) - AI-based Resource Allocation: Reinforcement Learning for Adaptive
Auto-scaling in Serverless Environments [0.0]
近年、サーバーレスコンピューティングはクラウドコンピューティングモデルの魅力的な新しいパラダイムとして現れています。
商用およびオープンソースのサーバレスコンピューティングプラットフォームに共通するアプローチは、ワークロードベースの自動スケーリングである。
本稿では、サーバーレスフレームワークにおける要求ベース自動スケーリングに対する強化学習アプローチの適用性について検討する。
論文 参考訳(メタデータ) (2020-05-29T06:18:39Z) - Knowledge Distillation for Mobile Edge Computation Offloading [14.417463848473494]
本稿では,Deep Imitation Learning(DIL)とKD(Knowledge Distillation)に基づくエッジ計算のオフロードフレームワークを提案する。
我々のモデルはすべての政策の中で最短の推論遅延を持っている。
論文 参考訳(メタデータ) (2020-04-09T04:58:46Z) - A Privacy-Preserving Distributed Architecture for
Deep-Learning-as-a-Service [68.84245063902908]
本稿では,ディープラーニング・アズ・ア・サービスのための分散アーキテクチャを提案する。
クラウドベースのマシンとディープラーニングサービスを提供しながら、ユーザの機密データを保存できる。
論文 参考訳(メタデータ) (2020-03-30T15:12:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。