論文の概要: Enhancing Split Computing and Early Exit Applications through Predefined Sparsity
- arxiv url: http://arxiv.org/abs/2407.11763v1
- Date: Tue, 16 Jul 2024 14:24:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-17 14:42:40.484510
- Title: Enhancing Split Computing and Early Exit Applications through Predefined Sparsity
- Title(参考訳): 事前定義されたスパーシリティによるスプリットコンピューティングとアーリーエグジットアプリケーションの強化
- Authors: Luigi Capogrosso, Enrico Fraccaroli, Giulio Petrozziello, Francesco Setti, Samarjit Chakraborty, Franco Fummi, Marco Cristani,
- Abstract要約: Deep Neural Networks(DNN)は、オブジェクト分類やアクション認識からスマートビルディングやヘルスケアまで、幅広い問題で最先端のパフォーマンスを達成した。
計算要件は、リソースに制約のあるエッジデバイスへのデプロイメントを妨げます。
本稿では,事前定義された空間性の概念とスプリットコンピューティング(SC)とEarly Exit(EE)を組み合わせることで,この問題に対処する新しいアプローチを提案する。
実験の結果, 性能を損なうことなく, 記憶量と計算複雑性を4倍に削減できることがわかった。
- 参考スコア(独自算出の注目度): 12.293736644405937
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the past decade, Deep Neural Networks (DNNs) achieved state-of-the-art performance in a broad range of problems, spanning from object classification and action recognition to smart building and healthcare. The flexibility that makes DNNs such a pervasive technology comes at a price: the computational requirements preclude their deployment on most of the resource-constrained edge devices available today to solve real-time and real-world tasks. This paper introduces a novel approach to address this challenge by combining the concept of predefined sparsity with Split Computing (SC) and Early Exit (EE). In particular, SC aims at splitting a DNN with a part of it deployed on an edge device and the rest on a remote server. Instead, EE allows the system to stop using the remote server and rely solely on the edge device's computation if the answer is already good enough. Specifically, how to apply such a predefined sparsity to a SC and EE paradigm has never been studied. This paper studies this problem and shows how predefined sparsity significantly reduces the computational, storage, and energy burdens during the training and inference phases, regardless of the hardware platform. This makes it a valuable approach for enhancing the performance of SC and EE applications. Experimental results showcase reductions exceeding 4x in storage and computational complexity without compromising performance. The source code is available at https://github.com/intelligolabs/sparsity_sc_ee.
- Abstract(参考訳): 過去10年間で、Deep Neural Networks(DNN)は、オブジェクトの分類やアクション認識からスマートなビルディングやヘルスケアまで、幅広い問題で最先端のパフォーマンスを達成した。
計算要件は、現在利用可能なリソース制約のあるエッジデバイスの大部分に、リアルタイムおよび現実世界のタスクを解決するためのデプロイを妨げます。
本稿では,事前定義された空間性の概念をスプライトコンピューティング(SC)とEarly Exit(EE)と組み合わせることで,この問題に対処する新しいアプローチを提案する。
特にSCは、エッジデバイスにデプロイされた部分と、リモートサーバにデプロイされた部分でDNNを分割することを目指している。
代わりに、EEはシステムがリモートサーバーの使用を停止し、答えが既に十分であるなら、エッジデバイスの計算のみに依存するようにする。
具体的には、SCとEEのパラダイムにそのような定義済みの疎結合をどのように適用するかは、これまで研究されていない。
本稿では,ハードウェアプラットフォームによらず,事前定義された空間が,トレーニングおよび推論フェーズにおける計算,記憶,エネルギー負担を著しく低減することを示す。
これにより、SCとEEアプリケーションのパフォーマンスを向上させるための貴重なアプローチになります。
実験の結果, 性能を損なうことなく, 記憶量と計算複雑性を4倍に削減できることがわかった。
ソースコードはhttps://github.com/intelligolabs/sparsity_sc_eeで公開されている。
関連論文リスト
- I-SplitEE: Image classification in Split Computing DNNs with Early Exits [5.402030962296633]
大規模なDeep Neural Networks(DNN)は、エッジやモバイル、IoTプラットフォームといったリソース制約のあるデバイスにデプロイするのを妨げる。
我々の研究は、アーリーエグジットとスプリットコンピューティングを融合した革新的な統一アプローチを提示している。
I-SplitEEは、地上の真実とシーケンシャルなデータを持たないシナリオに理想的なオンラインの教師なしアルゴリズムである。
論文 参考訳(メタデータ) (2024-01-19T07:44:32Z) - Slimmable Encoders for Flexible Split DNNs in Bandwidth and Resource
Constrained IoT Systems [12.427821850039448]
本稿では,スリム化可能なアンサンブルエンコーダに基づく分割計算手法を提案する。
私たちの設計の主な利点は、計算負荷と送信データサイズを最小限のオーバーヘッドと時間でリアルタイムで適応できることです。
本モデルでは,圧縮効率や実行時間,特にモバイルデバイスの弱い状況において,既存のソリューションよりも優れています。
論文 参考訳(メタデータ) (2023-06-22T06:33:12Z) - Implementing Reinforcement Learning Datacenter Congestion Control in NVIDIA NICs [64.26714148634228]
渋滞制御 (CC) アルゴリズムの設計は非常に困難になる。
現在、計算能力に制限があるため、ネットワークデバイスにAIモデルをデプロイすることはできない。
我々は,近年の強化学習CCアルゴリズムに基づく計算軽度解を構築した。
論文 参考訳(メタデータ) (2022-07-05T20:42:24Z) - Dynamic Split Computing for Efficient Deep Edge Intelligence [78.4233915447056]
通信チャネルの状態に基づいて最適な分割位置を動的に選択する動的分割計算を導入する。
本研究では,データレートとサーバ負荷が時間とともに変化するエッジコンピューティング環境において,動的スプリットコンピューティングが高速な推論を実現することを示す。
論文 参考訳(メタデータ) (2022-05-23T12:35:18Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Computational Intelligence and Deep Learning for Next-Generation
Edge-Enabled Industrial IoT [51.68933585002123]
エッジ対応産業用IoTネットワークにおける計算知能とディープラーニング(DL)の展開方法について検討する。
本稿では,新しいマルチエグジットベースフェデレーションエッジ学習(ME-FEEL)フレームワークを提案する。
特に、提案されたME-FEELは、非常に限られたリソースを持つ産業用IoTネットワークにおいて、最大32.7%の精度を達成することができる。
論文 参考訳(メタデータ) (2021-10-28T08:14:57Z) - Split Computing and Early Exiting for Deep Learning Applications: Survey
and Research Challenges [18.103754866476088]
我々はスプリットコンピューティング(SC)とアーリーエグジット(EE)戦略における技術の現状を包括的に調査する。
近年,ディープニューラルネットワークを,モバイルデバイスとエッジデバイスでそれぞれ実行されるヘッドモデルとテールモデルに分割する手法が提案されている。
EEは、アーキテクチャの初期に複数の"出口"を示すようにモデルを訓練し、それぞれが目標の精度をますます高めている。
論文 参考訳(メタデータ) (2021-03-08T01:47:20Z) - Cost-effective Machine Learning Inference Offload for Edge Computing [0.3149883354098941]
本稿では,インストール・ベース・オンプレミス(edge)計算資源を活用した新しいオフロード機構を提案する。
提案するメカニズムにより、エッジデバイスは、リモートクラウドを使用する代わりに、重い計算集約的なワークロードをエッジノードにオフロードすることができる。
論文 参考訳(メタデータ) (2020-12-07T21:11:02Z) - Dataflow Aware Mapping of Convolutional Neural Networks Onto Many-Core
Platforms With Network-on-Chip Interconnect [0.0764671395172401]
マシンインテリジェンス、特に畳み込みニューラルネットワーク(CNN)は、ここ数年で大きな研究領域となっている。
複数の同質なコアで構成される多コアプラットフォームは、データフローマッピングの労力の増大を犠牲にして、物理実装に関する制限を緩和することができる。
この作業は、最小限のランタイムと最小限のオフチップメモリアクセスに対して、最適化目標の異なるシングルコアレベルから始まる自動マッピング戦略を示す。
この戦略は、適切なマルチコアマッピング方式に拡張され、ネットワークオンチップ相互接続によるスケーラブルなシステムレベルシミュレーションを用いて評価される。
論文 参考訳(メタデータ) (2020-06-18T17:13:18Z) - Deep Learning for Ultra-Reliable and Low-Latency Communications in 6G
Networks [84.2155885234293]
まず,データ駆動型教師付き深層学習と深部強化学習をURLLCに適用する方法を概説する。
このようなオープンな問題に対処するために、デバイスインテリジェンス、エッジインテリジェンス、およびURLLCのためのクラウドインテリジェンスを可能にするマルチレベルアーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-02-22T14:38:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。