論文の概要: DeepReduce: A Sparse-tensor Communication Framework for Distributed Deep
Learning
- arxiv url: http://arxiv.org/abs/2102.03112v1
- Date: Fri, 5 Feb 2021 11:31:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-08 13:02:30.060964
- Title: DeepReduce: A Sparse-tensor Communication Framework for Distributed Deep
Learning
- Title(参考訳): DeepReduce:分散ディープラーニングのためのスパーステンソル通信フレームワーク
- Authors: Kelly Kostopoulou, Hang Xu, Aritra Dutta, Xin Li, Alexandros Ntoulas,
Panos Kalnis
- Abstract要約: 本稿では,スパーステンソルの圧縮通信のための汎用的フレームワークであるDeepReduceを紹介する。
DeepReduceはテンソルを2つの集合、値とインデックスに分解し、これらの集合の独立圧縮と結合圧縮を可能にする。
大規模実モデルを用いた実験により,DeepReduceはデータ転送を少なくし,既存の手法よりも計算オーバーヘッドを小さくすることを示した。
- 参考スコア(独自算出の注目度): 79.89085533866071
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Sparse tensors appear frequently in distributed deep learning, either as a
direct artifact of the deep neural network's gradients, or as a result of an
explicit sparsification process. Existing communication primitives are agnostic
to the peculiarities of deep learning; consequently, they impose unnecessary
communication overhead. This paper introduces DeepReduce, a versatile framework
for the compressed communication of sparse tensors, tailored for distributed
deep learning. DeepReduce decomposes sparse tensors in two sets, values and
indices, and allows both independent and combined compression of these sets. We
support a variety of common compressors, such as Deflate for values, or
run-length encoding for indices. We also propose two novel compression schemes
that achieve superior results: curve fitting-based for values and bloom
filter-based for indices. DeepReduce is orthogonal to existing gradient
sparsifiers and can be applied in conjunction with them, transparently to the
end-user, to significantly lower the communication overhead. As proof of
concept, we implement our approach on Tensorflow and PyTorch. Our experiments
with large real models demonstrate that DeepReduce transmits fewer data and
imposes lower computational overhead than existing methods, without affecting
the training accuracy.
- Abstract(参考訳): スパーステンソルは、ディープニューラルネットワークの勾配の直接的なアーティファクトとして、あるいは明示的なスパース化プロセスの結果として、分散ディープラーニングで頻繁に現れる。
既存のコミュニケーションプリミティブは、ディープラーニングの特異性に依存しないため、不要な通信オーバーヘッドを課す。
本稿では,分散ディープラーニングに適したスパーステンソルの圧縮通信のための汎用的フレームワークであるDeepReduceを紹介する。
DeepReduceは2つの集合、値とインデックスでスパーステンソルを分解し、これらの集合の独立圧縮と結合圧縮を可能にする。
我々は、値のdeflateやインデックスのrun-lengthエンコーディングなど、様々な共通圧縮器をサポートしている。
また,値の曲線フィッティングベースとインデックスのブルームフィルタベースの2つの新しい圧縮方式を提案する。
DeepReduceは、既存の勾配スペーサーと直交しており、それらをエンドユーザーに透過的に適用することで、通信オーバーヘッドを大幅に低減することができる。
概念実証として,Tensorflow と PyTorch のアプローチを実装した。
大規模実モデルを用いた実験により、deepreduceは既存の方法よりも少ないデータ転送と計算オーバーヘッドを課し、トレーニング精度に影響を及ぼさないことを示した。
関連論文リスト
- Low-rank Tensor Decomposition for Compression of Convolutional Neural
Networks Using Funnel Regularization [1.8579693774597708]
低ランクテンソル分解を用いた事前学習ネットワークを圧縮するモデル削減手法を提案する。
圧縮中の重要でない要因を抑えるために, ファンネル関数と呼ばれる新しい正規化法を提案する。
ImageNet2012のResNet18では、GMACの精度は0.7%に過ぎず、Top-1の精度はわずかに低下する。
論文 参考訳(メタデータ) (2021-12-07T13:41:51Z) - Optimization-Based Separations for Neural Networks [57.875347246373956]
本研究では,2層のシグモダルアクティベーションを持つディープ2ニューラルネットワークを用いて,ボールインジケータ関数を効率よく学習できることを示す。
これは最適化に基づく最初の分離結果であり、より強力なアーキテクチャの近似の利点は、実際に確実に現れる。
論文 参考訳(メタデータ) (2021-12-04T18:07:47Z) - Permute, Quantize, and Fine-tune: Efficient Compression of Neural
Networks [70.0243910593064]
ベクトル量子化の成功の鍵は、どのパラメータ群を一緒に圧縮するかを決定することである。
本稿では,隣り合う2つの層の重みを同じ関数を表現しながら不変にすることができることを観察する。
次に、レート歪み理論への接続を確立し、圧縮し易いネットワークとなる置換を探索する。
論文 参考訳(メタデータ) (2020-10-29T15:47:26Z) - Unfolding Neural Networks for Compressive Multichannel Blind
Deconvolution [71.29848468762789]
圧縮性多チャネルブラインドデコンボリューション問題に対する学習構造付き展開型ニューラルネットワークを提案する。
この問題では、各チャネルの測定は共通のソース信号とスパースフィルタの畳み込みとして与えられる。
提案手法は,従来の圧縮型マルチチャネルブラインドデコンボリューション法よりも,スパースフィルタの精度と高速化の点で優れていることを示す。
論文 参考訳(メタデータ) (2020-10-22T02:34:33Z) - A Partial Regularization Method for Network Compression [0.0]
本稿では, モデル圧縮を高速に行うために, 完全正則化と言われる全てのパラメータをペナライズする元の形式ではなく, 部分正則化のアプローチを提案する。
実験結果から, ほぼすべての状況において, 走行時間の減少を観測することにより, 計算複雑性を低減できることが示唆された。
驚くべきことに、複数のデータセットのトレーニングフェーズとテストフェーズの両方において、回帰フィッティング結果や分類精度などの重要な指標を改善するのに役立ちます。
論文 参考訳(メタデータ) (2020-09-03T00:38:27Z) - ESPN: Extremely Sparse Pruned Networks [50.436905934791035]
簡単な反復マスク探索法により,非常に深いネットワークの最先端の圧縮を実現することができることを示す。
本アルゴリズムは,シングルショット・ネットワーク・プルーニング法とロッテ・ティケット方式のハイブリッド・アプローチを示す。
論文 参考訳(メタデータ) (2020-06-28T23:09:27Z) - Understanding Generalization in Deep Learning via Tensor Methods [53.808840694241]
圧縮の観点から,ネットワークアーキテクチャと一般化可能性の関係について理解を深める。
本稿では、ニューラルネットワークの圧縮性と一般化性を強く特徴付ける、直感的で、データ依存的で、測定が容易な一連の特性を提案する。
論文 参考訳(メタデータ) (2020-01-14T22:26:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。