論文の概要: Complexity-aware Adaptive Training and Inference for Edge-Cloud
Distributed AI Systems
- arxiv url: http://arxiv.org/abs/2109.06440v1
- Date: Tue, 14 Sep 2021 05:03:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-15 15:33:49.190795
- Title: Complexity-aware Adaptive Training and Inference for Edge-Cloud
Distributed AI Systems
- Title(参考訳): エッジクラウド分散AIシステムのための複雑度対応型学習と推論
- Authors: Yinghan Long, Indranil Chakraborty, Gopalakrishnan Srinivasan, Kaushik
Roy
- Abstract要約: IoTおよび機械学習アプリケーションは、リアルタイム処理を必要とする大量のデータを生成する。
我々は、エッジとクラウドの両方を利用してトレーニングと推論を行う分散AIシステムを提案する。
- 参考スコア(独自算出の注目度): 9.273593723275544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ubiquitous use of IoT and machine learning applications is creating large
amounts of data that require accurate and real-time processing. Although
edge-based smart data processing can be enabled by deploying pretrained models,
the energy and memory constraints of edge devices necessitate distributed deep
learning between the edge and the cloud for complex data. In this paper, we
propose a distributed AI system to exploit both the edge and the cloud for
training and inference. We propose a new architecture, MEANet, with a main
block, an extension block, and an adaptive block for the edge. The inference
process can terminate at either the main block, the extension block, or the
cloud. The MEANet is trained to categorize inputs into easy/hard/complex
classes. The main block identifies instances of easy/hard classes and
classifies easy classes with high confidence. Only data with high probabilities
of belonging to hard classes would be sent to the extension block for
prediction. Further, only if the neural network at the edge shows low
confidence in the prediction, the instance is considered complex and sent to
the cloud for further processing. The training technique lends to the majority
of inference on edge devices while going to the cloud only for a small set of
complex jobs, as determined by the edge. The performance of the proposed system
is evaluated via extensive experiments using modified models of ResNets and
MobileNetV2 on CIFAR-100 and ImageNet datasets. The results show that the
proposed distributed model has improved accuracy and energy consumption,
indicating its capacity to adapt.
- Abstract(参考訳): IoTおよび機械学習アプリケーションのユビキタス利用は、正確でリアルタイムな処理を必要とする大量のデータを生成している。
エッジベースのスマートデータ処理は、事前訓練されたモデルをデプロイすることで実現可能だが、エッジデバイスのエネルギーとメモリの制約は、複雑なデータのためにエッジとクラウドの間の分散ディープラーニングを必要とする。
本稿では,エッジとクラウドの両方を利用してトレーニングと推論を行う分散AIシステムを提案する。
そこで本研究では,主ブロック,拡張ブロック,エッジ適応ブロックを備えた新しいアーキテクチャである meanet を提案する。
推論プロセスは、メインブロック、拡張ブロック、またはクラウドのいずれかで終了することができる。
meanetは入力をeasy/hard/complexクラスに分類するように訓練されている。
メインブロックは、簡単/ハードクラスのインスタンスを特定し、信頼性の高い簡単なクラスを分類する。
ハードクラスに属する確率の高いデータだけが、予測のために拡張ブロックに送られる。
さらに、エッジのニューラルネットワークが予測に対する信頼度が低い場合に限り、インスタンスは複雑と見なされ、さらなる処理のためにクラウドに送られる。
このトレーニングテクニックは、エッジによって決定されるような、小さな複雑なジョブセットのみをクラウドに投入しながら、エッジデバイス上での推論の大部分に役立ちます。
CIFAR-100およびImageNetデータセット上でResNetsとMobileNetV2の修正モデルを用いて,提案システムの性能評価を行った。
その結果,提案した分散モデルにより精度とエネルギー消費が向上し,適応能力が示唆された。
関連論文リスト
- Leveraging Federated Learning and Edge Computing for Recommendation
Systems within Cloud Computing Networks [3.36271475827981]
エッジインテリジェンスの鍵となる技術は、フェデレートラーニング(FL)として知られる、プライバシ保護機械学習パラダイムである。
ノード障害とデバイス終了を減らすため、階層的フェデレートラーニング(HFL)フレームワークが提案され、指定されたクラスタリーダが中間モデルアグリゲーションを通じてデータオーナをサポートする。
ユーザエクスペリエンスの品質(QoE)に対するソフトクリックの影響を軽減するため、著者らは、ユーザQoEを包括的なシステムコストとしてモデル化した。
論文 参考訳(メタデータ) (2024-03-05T17:58:26Z) - EdgeConvEns: Convolutional Ensemble Learning for Edge Intelligence [0.0]
Deep Edge Intelligenceは、計算能力に制限のあるエッジネットワークに、計算に高価なトレーニングを必要とするディープラーニングモデルをデプロイすることを目的としている。
本研究では、エッジ上の不均一な弱モデルを訓練し、エッジ上のデータが不均一に分散されている場所でアンサンブルを学習する、EdgeConvEnsという畳み込み型アンサンブル学習手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T20:07:32Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z) - EffCNet: An Efficient CondenseNet for Image Classification on NXP
BlueBox [0.0]
エッジデバイスは、安価なハードウェアと限られた冷却と計算資源のために、限られた処理能力を提供する。
我々はエッジデバイスのためのEffCNetと呼ばれる新しいディープ畳み込みニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-11-28T21:32:31Z) - Computational Intelligence and Deep Learning for Next-Generation
Edge-Enabled Industrial IoT [51.68933585002123]
エッジ対応産業用IoTネットワークにおける計算知能とディープラーニング(DL)の展開方法について検討する。
本稿では,新しいマルチエグジットベースフェデレーションエッジ学習(ME-FEEL)フレームワークを提案する。
特に、提案されたME-FEELは、非常に限られたリソースを持つ産業用IoTネットワークにおいて、最大32.7%の精度を達成することができる。
論文 参考訳(メタデータ) (2021-10-28T08:14:57Z) - Auto-Split: A General Framework of Collaborative Edge-Cloud AI [49.750972428032355]
本稿では,Huawei Cloudのエッジクラウド共同プロトタイプであるAuto-Splitの技法と技術実践について述べる。
私たちの知る限りでは、Deep Neural Network(DNN)分割機能を提供する既存の産業製品はありません。
論文 参考訳(メタデータ) (2021-08-30T08:03:29Z) - Cost-effective Machine Learning Inference Offload for Edge Computing [0.3149883354098941]
本稿では,インストール・ベース・オンプレミス(edge)計算資源を活用した新しいオフロード機構を提案する。
提案するメカニズムにより、エッジデバイスは、リモートクラウドを使用する代わりに、重い計算集約的なワークロードをエッジノードにオフロードすることができる。
論文 参考訳(メタデータ) (2020-12-07T21:11:02Z) - A Privacy-Preserving Distributed Architecture for
Deep-Learning-as-a-Service [68.84245063902908]
本稿では,ディープラーニング・アズ・ア・サービスのための分散アーキテクチャを提案する。
クラウドベースのマシンとディープラーニングサービスを提供しながら、ユーザの機密データを保存できる。
論文 参考訳(メタデータ) (2020-03-30T15:12:03Z) - Deep Learning for Ultra-Reliable and Low-Latency Communications in 6G
Networks [84.2155885234293]
まず,データ駆動型教師付き深層学習と深部強化学習をURLLCに適用する方法を概説する。
このようなオープンな問題に対処するために、デバイスインテリジェンス、エッジインテリジェンス、およびURLLCのためのクラウドインテリジェンスを可能にするマルチレベルアーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-02-22T14:38:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。