論文の概要: Layer-Parallel Training of Residual Networks with Auxiliary-Variable
Networks
- arxiv url: http://arxiv.org/abs/2112.05387v1
- Date: Fri, 10 Dec 2021 08:45:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-13 21:45:55.962592
- Title: Layer-Parallel Training of Residual Networks with Auxiliary-Variable
Networks
- Title(参考訳): 補助変数ネットワークを用いた残差ネットワークの層並列学習
- Authors: Qi Sun, Hexin Dong, Zewei Chen, Jiacheng Sun, Zhenguo Li and Bin Dong
- Abstract要約: 補助変数法は近年、多くの関心を集めているが、通信オーバーヘッドとデータ拡張の欠如に悩まされている。
本稿では,複数のコンピュータデバイスにまたがる現実的なResNetを学習するための新しい共同学習フレームワークを提案する。
CIFAR-10, CIFAR-100, ImageNetデータセットにまたがるResNetsおよびWideResNetsにおける手法の有効性を示す。
- 参考スコア(独自算出の注目度): 28.775355111614484
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gradient-based methods for the distributed training of residual networks
(ResNets) typically require a forward pass of the input data, followed by
back-propagating the error gradient to update model parameters, which becomes
time-consuming as the network goes deeper. To break the algorithmic locking and
exploit synchronous module parallelism in both the forward and backward modes,
auxiliary-variable methods have attracted much interest lately but suffer from
significant communication overhead and lack of data augmentation. In this work,
a novel joint learning framework for training realistic ResNets across multiple
compute devices is established by trading off the storage and recomputation of
external auxiliary variables. More specifically, the input data of each
independent processor is generated from its low-capacity auxiliary network
(AuxNet), which permits the use of data augmentation and realizes forward
unlocking. The backward passes are then executed in parallel, each with a local
loss function that originates from the penalty or augmented Lagrangian (AL)
methods. Finally, the proposed AuxNet is employed to reproduce the updated
auxiliary variables through an end-to-end training process. We demonstrate the
effectiveness of our methods on ResNets and WideResNets across CIFAR-10,
CIFAR-100, and ImageNet datasets, achieving speedup over the traditional
layer-serial training method while maintaining comparable testing accuracy.
- Abstract(参考訳): 残差ネットワーク(resnet)の分散トレーニングのための勾配ベースの方法は、一般的に入力データの前方パスが必要であり、その後モデルパラメータを更新するためにエラー勾配をバックプロパゲーションする。
アルゴリズム的なロックを壊し、前方モードと後方モードの両方で同期モジュール並列性を利用するため、補助変数法は近年多くの関心を集めているが、通信オーバーヘッドとデータ拡張の欠如に苦しめられている。
本研究では、外部補助変数の格納と再計算をトレードオフすることで、複数の計算装置間で現実的なResNetをトレーニングするための新しい共同学習フレームワークを確立する。
より具体的には、各独立プロセッサの入力データをその低容量補助ネットワーク(auxnet)から生成し、データ拡張の使用を許可し、前方アンロックを実現する。
後戻りパスは並列に実行され、それぞれがペナルティまたは拡張ラグランジアン(AL)メソッドに由来する局所的な損失関数を持つ。
最後に、改良された補助変数をエンドツーエンドのトレーニングプロセスを通じて再現するために、提案するauxnetを用いる。
提案手法は,cifar-10,cifar-100,imagenetデータセットにまたがるresnetとより広いesnetに対して有効であることを示す。
関連論文リスト
- Auto-Train-Once: Controller Network Guided Automatic Network Pruning from Scratch [72.26822499434446]
オートトレインオース (Auto-Train-Once, ATO) は、DNNの計算コストと記憶コストを自動的に削減するために設計された、革新的なネットワークプルーニングアルゴリズムである。
総合的な収束解析と広範な実験を行い,本手法が様々なモデルアーキテクチャにおける最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2024-03-21T02:33:37Z) - Efficient Asynchronous Federated Learning with Sparsification and
Quantization [55.6801207905772]
フェデレートラーニング(FL)は、生データを転送することなく、機械学習モデルを協調的にトレーニングするために、ますます注目を集めている。
FLは一般的に、モデルトレーニングの全プロセス中にパラメータサーバーと多数のエッジデバイスを利用する。
TEASQ-Fedは、エッジデバイスを利用して、タスクに積極的に適用することで、トレーニングプロセスに非同期に参加する。
論文 参考訳(メタデータ) (2023-12-23T07:47:07Z) - Rewarded meta-pruning: Meta Learning with Rewards for Channel Pruning [19.978542231976636]
本稿では,ディープラーニングモデルにおける計算効率向上のためのパラメータとFLOPの削減手法を提案する。
本稿では,ネットワークの精度と計算効率のトレードオフを制御するために,精度と効率係数を導入する。
論文 参考訳(メタデータ) (2023-01-26T12:32:01Z) - Receptive Field-based Segmentation for Distributed CNN Inference
Acceleration in Collaborative Edge Computing [93.67044879636093]
協調エッジコンピューティングネットワークにおける分散畳み込みニューラルネットワーク(CNN)を用いた推論高速化について検討する。
我々は,CNNモデルを複数の畳み込み層に分割するために,融合層並列化を用いた新しい協調エッジコンピューティングを提案する。
論文 参考訳(メタデータ) (2022-07-22T18:38:11Z) - Learning in Feedback-driven Recurrent Spiking Neural Networks using
full-FORCE Training [4.124948554183487]
本稿では,トレーニング中にのみ第2のネットワークを導入するRSNNの教師付きトレーニング手順を提案する。
提案したトレーニング手順は、リカレント層とリードアウト層の両方のターゲットを生成することで構成される。
本研究では,8つの力学系をモデル化するためのフルFORCEトレーニング手法の性能向上とノイズ堅牢性を示す。
論文 参考訳(メタデータ) (2022-05-26T19:01:19Z) - A Deep Value-network Based Approach for Multi-Driver Order Dispatching [55.36656442934531]
そこで本研究では,注文発送のための深層強化学習に基づくソリューションを提案する。
DiDiの配車プラットフォーム上で大規模なオンラインA/Bテストを実施している。
その結果,CVNetは近年提案されているディスパッチ手法よりも一貫して優れていた。
論文 参考訳(メタデータ) (2021-06-08T16:27:04Z) - Implicit recurrent networks: A novel approach to stationary input
processing with recurrent neural networks in deep learning [0.0]
本研究では,ニューラルネットの新たな実装を深層学習に導入し,検証する。
繰り返しネットワークの暗黙的な実装にバックプロパゲーションアルゴリズムを実装するアルゴリズムを提案する。
シングルレイヤの暗黙的リカレントネットワークはXOR問題を解くことができ、一方、単調に活性化関数が増加するフィードフォワードネットワークは、このタスクで失敗する。
論文 参考訳(メタデータ) (2020-10-20T18:55:32Z) - A Practical Layer-Parallel Training Algorithm for Residual Networks [41.267919563145604]
ResNetのトレーニングのための勾配ベースのアルゴリズムは、通常、入力データの前方パスを必要とし、続いてパラメータを更新するために目的の勾配をバックプロパゲートする。
本稿では,データ拡張を実現するための新しいシリアル並列ハイブリッドトレーニング戦略と,通信コスト削減のためのダウンサンプリングフィルタを提案する。
論文 参考訳(メタデータ) (2020-09-03T06:03:30Z) - Coded Computing for Federated Learning at the Edge [3.385874614913973]
フェデレートラーニング(FL)は、クライアントデータを集中サーバに移行することなく、クライアントノードでローカルに生成されたデータからグローバルモデルをトレーニングすることを可能にする。
最近の研究は、MECサーバに冗長な計算を割り当てることで、トラグラーを緩和し、線形回帰タスクのトレーニングを高速化することを提案する。
我々は、CFLを分散非線形回帰および多出力ラベルによる分類問題に拡張する難題に対処するCodedFedLを開発した。
論文 参考訳(メタデータ) (2020-07-07T08:20:47Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。