論文の概要: Parareal Neural Networks Emulating a Parallel-in-time Algorithm
- arxiv url: http://arxiv.org/abs/2103.08802v1
- Date: Tue, 16 Mar 2021 02:03:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-17 13:18:13.010449
- Title: Parareal Neural Networks Emulating a Parallel-in-time Algorithm
- Title(参考訳): 並列時間アルゴリズムをエミュレートする並列ニューラルネットワーク
- Authors: Chang-Ock Lee, Youngkyu Lee, and Jongho Park
- Abstract要約: ディープニューラルネットワーク(DNN)が深まるにつれて、トレーニング時間が増加する。
本稿では,並列ニューラルネットワークを構築するための新しい手法を提案する。
- 参考スコア(独自算出の注目度): 1.988145627448243
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As deep neural networks (DNNs) become deeper, the training time increases. In
this perspective, multi-GPU parallel computing has become a key tool in
accelerating the training of DNNs. In this paper, we introduce a novel
methodology to construct a parallel neural network that can utilize multiple
GPUs simultaneously from a given DNN. We observe that layers of DNN can be
interpreted as the time step of a time-dependent problem and can be
parallelized by emulating a parallel-in-time algorithm called parareal. The
parareal algorithm consists of fine structures which can be implemented in
parallel and a coarse structure which gives suitable approximations to the fine
structures. By emulating it, the layers of DNN are torn to form a parallel
structure which is connected using a suitable coarse network. We report
accelerated and accuracy-preserved results of the proposed methodology applied
to VGG-16 and ResNet-1001 on several datasets.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)が深まるにつれて、トレーニング時間が増加する。
この観点から、マルチGPU並列コンピューティングは、DNNのトレーニングを加速する重要なツールとなっている。
本稿では,与えられたdnnから複数のgpuを同時に利用できる並列ニューラルネットワークを構築するための新しい手法を提案する。
DNNの層は時間依存問題の時間ステップとして解釈でき、パラリアルと呼ばれる並列時間アルゴリズムをエミュレートすることで並列化できる。
パラリアルアルゴリズムは、並列に実装できる微細構造と、その微細構造に適切な近似を与える粗い構造とから構成される。
これをエミュレートすることで、DNNの層は破れ、適切な粗いネットワークで接続された並列構造を形成する。
本稿では,VGG-16とResNet-1001に適用した提案手法の高速化と精度保存結果について報告する。
関連論文リスト
- TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - TAP: Accelerating Large-Scale DNN Training Through Tensor Automatic
Parallelisation [19.009600866053923]
本稿では,最適なデータとテンソル並列スケジュールを自動的に検索するモデル並列化フレームワークTAPを提案する。
実験によると、TAPは最先端の自動並列処理フレームワークよりも20ドルから160ドル高速である。
論文 参考訳(メタデータ) (2023-02-01T05:22:28Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Receptive Field-based Segmentation for Distributed CNN Inference
Acceleration in Collaborative Edge Computing [93.67044879636093]
協調エッジコンピューティングネットワークにおける分散畳み込みニューラルネットワーク(CNN)を用いた推論高速化について検討する。
我々は,CNNモデルを複数の畳み込み層に分割するために,融合層並列化を用いた新しい協調エッジコンピューティングを提案する。
論文 参考訳(メタデータ) (2022-07-22T18:38:11Z) - Instant Neural Graphics Primitives with a Multiresolution Hash Encoding [67.33850633281803]
品質を犠牲にすることなく、より小さなネットワークを使用できる汎用的な新しい入力符号化を提案する。
小さなニューラルネットワークは、勾配降下によって値が最適化された訓練可能な特徴ベクトルの多分解能ハッシュテーブルによって拡張される。
数桁の高速化を実現し、高品質なニューラルネットワークプリミティブを数秒でトレーニングすることができる。
論文 参考訳(メタデータ) (2022-01-16T07:22:47Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - BaPipe: Exploration of Balanced Pipeline Parallelism for DNN Training [9.551339069298011]
BaPipeは分散ディープラーニングのためのパイプライン並列化トレーニングフレームワークである。
パイプライン並列性トレーニングメソッドと分散トレーニングのためのバランスの取れたパーティション戦略を自動で探索する。
BaPipeは、様々なプラットフォームで最大3.2倍のスピードアップと4倍のメモリ削減を提供する。
論文 参考訳(メタデータ) (2020-12-23T08:57:39Z) - A Linear Algebraic Approach to Model Parallelism in Deep Learning [0.0]
ネットワークのサイズと複雑さが大きくなるにつれて、大規模クラスタコンピューティング環境でのディープニューラルネットワーク(DNN)のトレーニングがますます必要になる。
深層学習における並列性をモデル化するための線形代数的手法を提案し,DNNにおけるテンソルの並列分布を実現する。
本研究では,これらの並列プリミティブを用いて分散DNN層を構築し,PyTorchおよびMPIベースの分散ディープラーニングツールキットであるDistDLを用いて分散DNNを構築し,訓練することにより,それらのアプリケーションを実演する。
論文 参考訳(メタデータ) (2020-06-04T19:38:05Z) - Brief Announcement: On the Limits of Parallelizing Convolutional Neural
Networks on GPUs [0.45740558095423056]
深層ニューラルネットワーク(DNN)のトレーニングは、大量のパラメータを学習しなければならないため、GPU上でも時間を要するプロセスである。
我々は、トレーニング時間を短縮するために、最先端の非線形ネットワークにおいて、このリッチ並列性を活用する必要性と潜在的な利点を論じる。
論文 参考訳(メタデータ) (2020-05-28T07:51:22Z) - Accelerating Feedforward Computation via Parallel Nonlinear Equation
Solving [106.63673243937492]
ニューラルネットワークの評価や自己回帰モデルからのサンプリングなどのフィードフォワード計算は、機械学習においてユビキタスである。
本稿では,非線形方程式の解法としてフィードフォワード計算の課題を定式化し,ジャコビ・ガウス・シーデル固定点法とハイブリッド法を用いて解を求める。
提案手法は, 並列化可能な繰り返し回数の削減(あるいは等値化)により, 元のフィードフォワード計算と全く同じ値が与えられることを保証し, 十分な並列化計算能力を付与する。
論文 参考訳(メタデータ) (2020-02-10T10:11:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。