論文の概要: Hierarchical Training of Deep Neural Networks Using Early Exiting
- arxiv url: http://arxiv.org/abs/2303.02384v2
- Date: Sun, 19 Mar 2023 14:39:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-23 23:17:52.334600
- Title: Hierarchical Training of Deep Neural Networks Using Early Exiting
- Title(参考訳): 早期出力を用いた深部ニューラルネットワークの階層的学習
- Authors: Yamin Sepehri, Pedram Pad, Ahmet Caner Y\"uz\"ug\"uler, Pascal
Frossard, L. Andrea Dunbar
- Abstract要約: 深層ニューラルネットワークは、ビジョンタスクに最先端の精度を提供するが、トレーニングにはかなりのリソースを必要とする。
ディープニューラルネットワークは、データを取得するエッジデバイスから遠く離れたクラウドサーバでトレーニングされる。
エッジとクラウドワーカ間の分割アーキテクチャにおいて,早期出口を用いた新しい階層的ニューラルネットワークトレーニング手法が提案されている。
- 参考スコア(独自算出の注目度): 50.49194837327223
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks provide state-of-the-art accuracy for vision tasks but
they require significant resources for training. Thus, they are trained on
cloud servers far from the edge devices that acquire the data. This issue
increases communication cost, runtime and privacy concerns. In this study, a
novel hierarchical training method for deep neural networks is proposed that
uses early exits in a divided architecture between edge and cloud workers to
reduce the communication cost, training runtime and privacy concerns. The
method proposes a brand-new use case for early exits to separate the backward
pass of neural networks between the edge and the cloud during the training
phase. We address the issues of most available methods that due to the
sequential nature of the training phase, cannot train the levels of hierarchy
simultaneously or they do it with the cost of compromising privacy. In
contrast, our method can use both edge and cloud workers simultaneously, does
not share the raw input data with the cloud and does not require communication
during the backward pass. Several simulations and on-device experiments for
different neural network architectures demonstrate the effectiveness of this
method. It is shown that the proposed method reduces the training runtime by
29% and 61% in CIFAR-10 classification experiment for VGG-16 and ResNet-18 when
the communication with the cloud is done at a low bit rate channel. This gain
in the runtime is achieved whilst the accuracy drop is negligible. This method
is advantageous for online learning of high-accuracy deep neural networks on
low-resource devices such as mobile phones or robots as a part of an edge-cloud
system, making them more flexible in facing new tasks and classes of data.
- Abstract(参考訳): ディープニューラルネットワークはビジョンタスクに最先端の精度を提供するが、トレーニングにはかなりのリソースを必要とする。
したがって、データを取得するエッジデバイスから遠く離れたクラウドサーバでトレーニングされる。
この問題は通信コスト、ランタイム、プライバシの懸念を高める。
本研究では,エッジとクラウドワーカを分割したアーキテクチャで早期のエグジットを利用して通信コスト,トレーニングランタイム,プライバシの懸念を緩和する,ディープニューラルネットワークの新しい階層的トレーニング手法を提案する。
本手法では,トレーニング期間中のエッジとクラウド間のニューラルネットワークの後方通過を分離するために,早期出口の新しいユースケースを提案する。
トレーニングフェーズのシーケンシャルな性質のため、階層のレベルを同時にトレーニングできない、あるいはプライバシを妥協するコストで実行できない、最も利用可能なメソッドの問題に対処する。
対照的に,本手法はエッジとクラウドワーカを同時に使用することができ,生の入力データをクラウドと共有せず,後方通過時の通信も不要である。
異なるニューラルネットワークアーキテクチャに対するいくつかのシミュレーションとオンデバイス実験は、この方法の有効性を実証している。
VGG-16とResNet-18のCIFAR-10分類実験において,クラウドとの通信を低ビットレートチャネルで行う場合,本手法はトレーニングランタイムを29%,61%削減する。
この実行時の利得は達成され、精度低下は無視される。
この方法は、エッジクラウドシステムの一部として携帯電話やロボットなどの低リソースデバイス上での、高精度なディープニューラルネットワークのオンライン学習に有利であり、新しいタスクやクラスのデータに対してより柔軟である。
関連論文リスト
- DCLP: Neural Architecture Predictor with Curriculum Contrastive Learning [5.2319020651074215]
ニューラル予測器(DCLP)のためのカリキュラム誘導型コントラスト学習フレームワークを提案する。
本手法は,新たなカリキュラムを設計し,ラベルのないトレーニングデータ分布の安定性を高めることで,対照的なタスクを単純化する。
我々は既存の予測器と比較してDCLPの精度と効率が優れていることを実験的に実証した。
論文 参考訳(メタデータ) (2023-02-25T08:16:21Z) - Training Your Sparse Neural Network Better with Any Mask [106.134361318518]
高品質で独立したトレーニング可能なスパースマスクを作成するために、大規模なニューラルネットワークをプルーニングすることが望ましい。
本稿では、デフォルトの高密度ネットワークトレーニングプロトコルから逸脱するためにスパーストレーニングテクニックをカスタマイズできる別の機会を示す。
我々の新しいスパーストレーニングレシピは、スクラッチから様々なスパースマスクでトレーニングを改善するために一般的に適用されます。
論文 参考訳(メタデータ) (2022-06-26T00:37:33Z) - Neural Maximum A Posteriori Estimation on Unpaired Data for Motion
Deblurring [87.97330195531029]
本稿では、ニューラルネットワークをトレーニングし、失明したデータから視覚情報や鋭いコンテンツを復元するためのニューラルネットワークの最大Aポストエリオリ(NeurMAP)推定フレームワークを提案する。
提案されたNeurMAPは、既存のデブロアリングニューラルネットワークに対するアプローチであり、未使用データセット上のイメージデブロアリングネットワークのトレーニングを可能にする最初のフレームワークである。
論文 参考訳(メタデータ) (2022-04-26T08:09:47Z) - Neural Capacitance: A New Perspective of Neural Network Selection via
Edge Dynamics [85.31710759801705]
現在の実践は、性能予測のためのモデルトレーニングにおいて高価な計算コストを必要とする。
本稿では,学習中のシナプス接続(エッジ)上の制御ダイナミクスを解析し,ニューラルネットワーク選択のための新しいフレームワークを提案する。
我々のフレームワークは、ニューラルネットワークトレーニング中のバックプロパゲーションがシナプス接続の動的進化と等価であるという事実に基づいて構築されている。
論文 参考訳(メタデータ) (2022-01-11T20:53:15Z) - Federated Dynamic Sparse Training: Computing Less, Communicating Less,
Yet Learning Better [88.28293442298015]
Federated Learning (FL)は、クラウドからリソース制限されたエッジデバイスへの機械学習ワークロードの分散を可能にする。
我々は、FedDST(Federated Dynamic Sparse Training)と呼ばれる新しいFLフレームワークを開発し、実装し、実験的に検証する。
FedDSTは、ターゲットのフルネットワークからスパースサブネットワークを抽出し、訓練する動的プロセスである。
論文 参考訳(メタデータ) (2021-12-18T02:26:38Z) - An Experimental Study of the Impact of Pre-training on the Pruning of a
Convolutional Neural Network [0.0]
近年、ディープニューラルネットワークは様々なアプリケーション領域で広く成功している。
ディープニューラルネットワークは通常、ネットワークの重みに対応する多数のパラメータを含む。
プルーニング法は特に、無関係な重みを識別して取り除くことにより、パラメータセットのサイズを減らそうとしている。
論文 参考訳(メタデータ) (2021-12-15T16:02:15Z) - CLAN: Continuous Learning using Asynchronous Neuroevolution on Commodity
Edge Devices [3.812706195714961]
我々は、NeuroEvolutionary(NE)学習と推論を実行するWiFiを介して通信するRaspberry Piのプロトタイプシステムを構築した。
本研究では,このような協調システムの性能を評価し,システムの異なる配置の計算/通信特性について詳述する。
論文 参考訳(メタデータ) (2020-08-27T01:49:21Z) - A Hybrid Method for Training Convolutional Neural Networks [3.172761915061083]
本稿では,畳み込みニューラルネットワークの学習にバックプロパゲーションと進化戦略の両方を用いるハイブリッド手法を提案する。
画像分類のタスクにおいて,提案手法は定期的な訓練において改善可能であることを示す。
論文 参考訳(メタデータ) (2020-04-15T17:52:48Z) - HierTrain: Fast Hierarchical Edge AI Learning with Hybrid Parallelism in
Mobile-Edge-Cloud Computing [36.40138484917463]
我々は階層型AI学習フレームワークであるHierTrainを提案し、階層型MECCアーキテクチャ上でDNNトレーニングタスクを効率的に展開する。
HierTrainがクラウドベースの階層的トレーニングアプローチと比較して最大6.9倍のスピードアップを実現可能であることを示す。
論文 参考訳(メタデータ) (2020-03-22T12:40:06Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。