論文の概要: Cost-effective Machine Learning Inference Offload for Edge Computing
- arxiv url: http://arxiv.org/abs/2012.04063v1
- Date: Mon, 7 Dec 2020 21:11:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 20:44:36.749490
- Title: Cost-effective Machine Learning Inference Offload for Edge Computing
- Title(参考訳): エッジコンピューティングのためのコスト効率の良い機械学習推論負荷
- Authors: Christian Makaya, Amalendu Iyer, Jonathan Salfity, Madhu Athreya, M
Anthony Lewis
- Abstract要約: 本稿では,インストール・ベース・オンプレミス(edge)計算資源を活用した新しいオフロード機構を提案する。
提案するメカニズムにより、エッジデバイスは、リモートクラウドを使用する代わりに、重い計算集約的なワークロードをエッジノードにオフロードすることができる。
- 参考スコア(独自算出の注目度): 0.3149883354098941
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Computing at the edge is increasingly important since a massive amount of
data is generated. This poses challenges in transporting all that data to the
remote data centers and cloud, where they can be processed and analyzed. On the
other hand, harnessing the edge data is essential for offering data-driven and
machine learning-based applications, if the challenges, such as device
capabilities, connectivity, and heterogeneity can be mitigated. Machine
learning applications are very compute-intensive and require processing of
large amount of data. However, edge devices are often resources-constrained, in
terms of compute resources, power, storage, and network connectivity. Hence,
limiting their potential to run efficiently and accurately state-of-the art
deep neural network (DNN) models, which are becoming larger and more complex.
This paper proposes a novel offloading mechanism by leveraging installed-base
on-premises (edge) computational resources. The proposed mechanism allows the
edge devices to offload heavy and compute-intensive workloads to edge nodes
instead of using remote cloud. Our offloading mechanism has been prototyped and
tested with state-of-the art person and object detection DNN models for mobile
robots and video surveillance applications. The performance shows a significant
gain compared to cloud-based offloading strategies in terms of accuracy and
latency.
- Abstract(参考訳): 大量のデータが生成されるため、エッジでのコンピューティングはますます重要になっている。
このことは、すべてのデータをリモートデータセンタやクラウドに転送する上で、処理と分析が可能な課題を引き起こします。
一方で、デバイスの能力、接続性、異種性といった課題を軽減できるのであれば、データ駆動および機械学習ベースのアプリケーションを提供するには、エッジデータを活用することが不可欠である。
機械学習アプリケーションは計算集約的で、大量のデータの処理を必要とする。
しかし、エッジデバイスは、計算資源、電力、ストレージ、ネットワーク接続の観点から、リソース制約が強いことが多い。
したがって、より大きく複雑になりつつある最先端のディープニューラルネットワーク(DNN)モデルを効率的かつ正確に動作させる可能性を制限することができる。
本稿では,インストール・ベース・オンプレミス(edge)計算資源を活用した新しいオフロード機構を提案する。
提案するメカニズムにより、エッジデバイスは、リモートクラウドを使用する代わりに、重い計算集約的なワークロードをエッジノードにオフロードすることができる。
我々のオフロード機構は,移動ロボットやビデオ監視アプリケーションのための最先端の人物と物体検出DNNモデルを用いてプロトタイプ化およびテストされている。
パフォーマンスは、正確性とレイテンシの観点から、クラウドベースのオフロード戦略に比べて大幅に向上している。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Driving Intelligent IoT Monitoring and Control through Cloud Computing and Machine Learning [3.134387323162717]
この記事では、クラウドコンピューティングと機械学習によるインテリジェントなiotモニタリングと制御の推進方法について説明する。
また、iotモニタリングと制御技術の開発、iotモニタリングと制御におけるエッジコンピューティングの適用、データ解析と故障検出における機械学習の役割についても紹介する。
論文 参考訳(メタデータ) (2024-03-26T20:59:48Z) - Slimmable Encoders for Flexible Split DNNs in Bandwidth and Resource
Constrained IoT Systems [12.427821850039448]
本稿では,スリム化可能なアンサンブルエンコーダに基づく分割計算手法を提案する。
私たちの設計の主な利点は、計算負荷と送信データサイズを最小限のオーバーヘッドと時間でリアルタイムで適応できることです。
本モデルでは,圧縮効率や実行時間,特にモバイルデバイスの弱い状況において,既存のソリューションよりも優れています。
論文 参考訳(メタデータ) (2023-06-22T06:33:12Z) - The MIT Supercloud Workload Classification Challenge [10.458111248130944]
本稿では,MIT Supercloudデータセットに基づくワークロード分類の課題について述べる。
この課題の目標は、計算ワークロードの分析におけるアルゴリズムのイノベーションを促進することである。
論文 参考訳(メタデータ) (2022-04-12T14:28:04Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z) - EffCNet: An Efficient CondenseNet for Image Classification on NXP
BlueBox [0.0]
エッジデバイスは、安価なハードウェアと限られた冷却と計算資源のために、限られた処理能力を提供する。
我々はエッジデバイスのためのEffCNetと呼ばれる新しいディープ畳み込みニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-11-28T21:32:31Z) - Computational Intelligence and Deep Learning for Next-Generation
Edge-Enabled Industrial IoT [51.68933585002123]
エッジ対応産業用IoTネットワークにおける計算知能とディープラーニング(DL)の展開方法について検討する。
本稿では,新しいマルチエグジットベースフェデレーションエッジ学習(ME-FEEL)フレームワークを提案する。
特に、提案されたME-FEELは、非常に限られたリソースを持つ産業用IoTネットワークにおいて、最大32.7%の精度を達成することができる。
論文 参考訳(メタデータ) (2021-10-28T08:14:57Z) - Complexity-aware Adaptive Training and Inference for Edge-Cloud
Distributed AI Systems [9.273593723275544]
IoTおよび機械学習アプリケーションは、リアルタイム処理を必要とする大量のデータを生成する。
我々は、エッジとクラウドの両方を利用してトレーニングと推論を行う分散AIシステムを提案する。
論文 参考訳(メタデータ) (2021-09-14T05:03:54Z) - Auto-Split: A General Framework of Collaborative Edge-Cloud AI [49.750972428032355]
本稿では,Huawei Cloudのエッジクラウド共同プロトタイプであるAuto-Splitの技法と技術実践について述べる。
私たちの知る限りでは、Deep Neural Network(DNN)分割機能を提供する既存の産業製品はありません。
論文 参考訳(メタデータ) (2021-08-30T08:03:29Z) - Towards AIOps in Edge Computing Environments [60.27785717687999]
本稿では,異種分散環境に適用可能なaiopsプラットフォームのシステム設計について述べる。
高頻度でメトリクスを収集し、エッジデバイス上で特定の異常検出アルゴリズムを直接実行することが可能である。
論文 参考訳(メタデータ) (2021-02-12T09:33:00Z) - Deep Learning for Ultra-Reliable and Low-Latency Communications in 6G
Networks [84.2155885234293]
まず,データ駆動型教師付き深層学習と深部強化学習をURLLCに適用する方法を概説する。
このようなオープンな問題に対処するために、デバイスインテリジェンス、エッジインテリジェンス、およびURLLCのためのクラウドインテリジェンスを可能にするマルチレベルアーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-02-22T14:38:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。