論文の概要: Auto-Split: A General Framework of Collaborative Edge-Cloud AI
- arxiv url: http://arxiv.org/abs/2108.13041v1
- Date: Mon, 30 Aug 2021 08:03:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-31 14:57:33.040293
- Title: Auto-Split: A General Framework of Collaborative Edge-Cloud AI
- Title(参考訳): Auto-Split: エッジクラウドAIの汎用フレームワーク
- Authors: Amin Banitalebi-Dehkordi, Naveen Vedula, Jian Pei, Fei Xia, Lanjun
Wang, Yong Zhang
- Abstract要約: 本稿では,Huawei Cloudのエッジクラウド共同プロトタイプであるAuto-Splitの技法と技術実践について述べる。
私たちの知る限りでは、Deep Neural Network(DNN)分割機能を提供する既存の産業製品はありません。
- 参考スコア(独自算出の注目度): 49.750972428032355
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In many industry scale applications, large and resource consuming machine
learning models reside in powerful cloud servers. At the same time, large
amounts of input data are collected at the edge of cloud. The inference results
are also communicated to users or passed to downstream tasks at the edge. The
edge often consists of a large number of low-power devices. It is a big
challenge to design industry products to support sophisticated deep model
deployment and conduct model inference in an efficient manner so that the model
accuracy remains high and the end-to-end latency is kept low. This paper
describes the techniques and engineering practice behind Auto-Split, an
edge-cloud collaborative prototype of Huawei Cloud. This patented technology is
already validated on selected applications, is on its way for broader
systematic edge-cloud application integration, and is being made available for
public use as an automated pipeline service for end-to-end cloud-edge
collaborative intelligence deployment. To the best of our knowledge, there is
no existing industry product that provides the capability of Deep Neural
Network (DNN) splitting.
- Abstract(参考訳): 多くの業界規模のアプリケーションでは、大規模かつリソースを消費する機械学習モデルが強力なクラウドサーバに存在する。
同時に、クラウドの端で大量の入力データが収集される。
推論結果は、ユーザにも伝達されるか、エッジのダウンストリームタスクに渡される。
エッジはしばしば多数の低消費電力デバイスで構成されている。
高度な深層モデル展開をサポートし、モデルの精度を高く保ち、エンドツーエンドのレイテンシを低く抑えるために、効率的なモデル推論を行うように、業界製品を設計することは大きな課題である。
本稿では,Huawei Cloudのエッジクラウド共同プロトタイプであるAuto-Splitの技法と技術実践について述べる。
この特許取得された技術は、すでに選択したアプリケーションで検証されており、より広範な体系的なエッジクラウドアプリケーション統合に向かっており、エンドツーエンドのクラウド-エッジ協調インテリジェンスデプロイメントのための自動化パイプラインサービスとして一般に利用可能になっている。
私たちの知る限りでは、Deep Neural Network(DNN)分割機能を提供する既存の産業製品はありません。
関連論文リスト
- Integrating Homomorphic Encryption and Trusted Execution Technology for
Autonomous and Confidential Model Refining in Cloud [4.21388107490327]
同型暗号化と信頼性の高い実行環境技術は、自律的な計算の機密性を保護することができる。
モデル精錬方式の設計にこれらの2つの手法を統合することを提案する。
論文 参考訳(メタデータ) (2023-08-02T06:31:41Z) - Design Automation for Fast, Lightweight, and Effective Deep Learning
Models: A Survey [53.258091735278875]
本調査では,エッジコンピューティングを対象としたディープラーニングモデルの設計自動化技術について述べる。
これは、有効性、軽量性、計算コストの観点からモデルの習熟度を定量化するために一般的に使用される主要なメトリクスの概要と比較を提供する。
この調査は、ディープモデル設計自動化技術の最先端の3つのカテゴリをカバーしている。
論文 参考訳(メタデータ) (2022-08-22T12:12:43Z) - EffCNet: An Efficient CondenseNet for Image Classification on NXP
BlueBox [0.0]
エッジデバイスは、安価なハードウェアと限られた冷却と計算資源のために、限られた処理能力を提供する。
我々はエッジデバイスのためのEffCNetと呼ばれる新しいディープ畳み込みニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-11-28T21:32:31Z) - Edge-Cloud Polarization and Collaboration: A Comprehensive Survey [61.05059817550049]
クラウドとエッジ両方のAIの体系的なレビューを行います。
私たちはクラウドとエッジモデリングの協調学習メカニズムを最初にセットアップしました。
我々は現在進行中の最先端AIトピックの可能性と実践経験について議論する。
論文 参考訳(メタデータ) (2021-11-11T05:58:23Z) - Computational Intelligence and Deep Learning for Next-Generation
Edge-Enabled Industrial IoT [51.68933585002123]
エッジ対応産業用IoTネットワークにおける計算知能とディープラーニング(DL)の展開方法について検討する。
本稿では,新しいマルチエグジットベースフェデレーションエッジ学習(ME-FEEL)フレームワークを提案する。
特に、提案されたME-FEELは、非常に限られたリソースを持つ産業用IoTネットワークにおいて、最大32.7%の精度を達成することができる。
論文 参考訳(メタデータ) (2021-10-28T08:14:57Z) - Complexity-aware Adaptive Training and Inference for Edge-Cloud
Distributed AI Systems [9.273593723275544]
IoTおよび機械学習アプリケーションは、リアルタイム処理を必要とする大量のデータを生成する。
我々は、エッジとクラウドの両方を利用してトレーニングと推論を行う分散AIシステムを提案する。
論文 参考訳(メタデータ) (2021-09-14T05:03:54Z) - Device-Cloud Collaborative Learning for Recommendation [50.01289274123047]
集中型クラウドモデルにより「数千人のモデルを持つ何千人もの人」を効率的に実現する新しいMetaPatch学習手法をデバイス側で提案します。
数十億の更新されたパーソナライズされたデバイスモデルにより、集中型クラウドモデルを更新する"モデルオーバーモデル"蒸留アルゴリズム、すなわちMoMoDistillを提案する。
論文 参考訳(メタデータ) (2021-04-14T05:06:59Z) - Efficient Low-Latency Dynamic Licensing for Deep Neural Network
Deployment on Edge Devices [0.0]
エッジデバイス上でのディープニューラルネットワークの展開と処理を解決するアーキテクチャを提案する。
このアーキテクチャを採用することで、デバイスの低レイテンシモデル更新が可能になる。
論文 参考訳(メタデータ) (2021-02-24T09:36:39Z) - Cost-effective Machine Learning Inference Offload for Edge Computing [0.3149883354098941]
本稿では,インストール・ベース・オンプレミス(edge)計算資源を活用した新しいオフロード機構を提案する。
提案するメカニズムにより、エッジデバイスは、リモートクラウドを使用する代わりに、重い計算集約的なワークロードをエッジノードにオフロードすることができる。
論文 参考訳(メタデータ) (2020-12-07T21:11:02Z) - Deep Learning for Ultra-Reliable and Low-Latency Communications in 6G
Networks [84.2155885234293]
まず,データ駆動型教師付き深層学習と深部強化学習をURLLCに適用する方法を概説する。
このようなオープンな問題に対処するために、デバイスインテリジェンス、エッジインテリジェンス、およびURLLCのためのクラウドインテリジェンスを可能にするマルチレベルアーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-02-22T14:38:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。