論文の概要: Distributed Training of Deep Learning Models: A Taxonomic Perspective
- arxiv url: http://arxiv.org/abs/2007.03970v1
- Date: Wed, 8 Jul 2020 08:56:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 13:40:42.684535
- Title: Distributed Training of Deep Learning Models: A Taxonomic Perspective
- Title(参考訳): ディープラーニングモデルの分散トレーニング--分類学的観点から
- Authors: Matthias Langer, Zhen He, Wenny Rahayu, and Yanbo Xue
- Abstract要約: 分散ディープラーニングシステム(DDLS)は、クラスタの分散リソースを利用することで、ディープニューラルネットワークモデルをトレーニングする。
私たちは、独立したマシンのクラスタでディープニューラルネットワークをトレーニングする際の、作業の基本原則に光を当てることを目指しています。
- 参考スコア(独自算出の注目度): 11.924058430461216
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distributed deep learning systems (DDLS) train deep neural network models by
utilizing the distributed resources of a cluster. Developers of DDLS are
required to make many decisions to process their particular workloads in their
chosen environment efficiently. The advent of GPU-based deep learning, the
ever-increasing size of datasets and deep neural network models, in combination
with the bandwidth constraints that exist in cluster environments require
developers of DDLS to be innovative in order to train high quality models
quickly. Comparing DDLS side-by-side is difficult due to their extensive
feature lists and architectural deviations. We aim to shine some light on the
fundamental principles that are at work when training deep neural networks in a
cluster of independent machines by analyzing the general properties associated
with training deep learning models and how such workloads can be distributed in
a cluster to achieve collaborative model training. Thereby we provide an
overview of the different techniques that are used by contemporary DDLS and
discuss their influence and implications on the training process. To
conceptualize and compare DDLS, we group different techniques into categories,
thus establishing a taxonomy of distributed deep learning systems.
- Abstract(参考訳): distributed deep learning systems (ddls)は、クラスタの分散リソースを利用してディープニューラルネットワークモデルをトレーニングする。
DDLSの開発者は、選択した環境で特定のワークロードを効率的に処理するための多くの決定をする必要がある。
GPUベースのディープラーニングの出現、データセットとディープニューラルネットワークモデルの絶え間なく増加するサイズ、クラスタ環境に存在する帯域制限と組み合わせることで、DDLSの開発者は、高品質モデルを迅速にトレーニングするために革新的である必要がある。
DDLSを並べて比較するのは、広範な機能リストとアーキテクチャ上の違いのため難しい。
我々は、ディープラーニングモデルのトレーニングに関連する一般的な特性を分析し、そのようなワークロードをクラスタに分散して協調的なモデルトレーニングを実現することで、独立したマシンのクラスタ内でディープニューラルネットワークをトレーニングする際の基本的な原則に光を当てることを目指している。
そこで,現代DDLSが使用する様々な技術の概要を述べ,その教育過程への影響と意義について論じる。
DDLSを概念化し、比較するために、異なるテクニックをカテゴリに分類し、分散ディープラーニングシステムの分類を確立させる。
関連論文リスト
- Peer-to-Peer Learning Dynamics of Wide Neural Networks [10.179711440042123]
我々は,一般的なDGDアルゴリズムを用いて学習した広範ニューラルネットワークの学習力学を,明示的で非漸近的に特徴づける。
我々は,誤りや誤りを正確に予測し,分析結果を検証した。
論文 参考訳(メタデータ) (2024-09-23T17:57:58Z) - Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - A Survey of Distributed Learning in Cloud, Mobile, and Edge Settings [1.0589208420411014]
この調査では、クラウドとエッジ設定を含む分散学習の状況について調査する。
データとモデルの並列性という中核的な概念を掘り下げて、モデルをさまざまな次元と層に分割して、リソースの利用とパフォーマンスを最適化する方法を調べます。
計算効率,通信オーバヘッド,メモリ制約のトレードオフを浮き彫りにして,完全接続層,畳み込み層,繰り返し層など,さまざまなレイヤタイプに対するパーティショニング方式を解析する。
論文 参考訳(メタデータ) (2024-05-23T22:00:38Z) - BEND: Bagging Deep Learning Training Based on Efficient Neural Network Diffusion [56.9358325168226]
BEND(Efficient Neural Network Diffusion)に基づくバッグング深層学習学習アルゴリズムを提案する。
我々のアプローチは単純だが効果的であり、まず複数のトレーニングされたモデルの重みとバイアスを入力として、オートエンコーダと潜伏拡散モデルを訓練する。
提案したBENDアルゴリズムは,元のトレーニングモデルと拡散モデルの両方の平均および中央値の精度を一貫して向上させることができる。
論文 参考訳(メタデータ) (2024-03-23T08:40:38Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Decentralized Training of Foundation Models in Heterogeneous
Environments [77.47261769795992]
GPT-3 や PaLM のようなトレーニング基盤モデルは、非常に高価である。
ヘテロジニアスネットワーク上での分散型システムにおけるモデル並列化を用いた大規模基盤モデルのトレーニングに関する最初の研究について述べる。
論文 参考訳(メタデータ) (2022-06-02T20:19:51Z) - Model-Based Deep Learning [155.063817656602]
信号処理、通信、制御は伝統的に古典的な統計モデリング技術に依存している。
ディープニューラルネットワーク(DNN)は、データから操作を学ぶ汎用アーキテクチャを使用し、優れたパフォーマンスを示す。
私たちは、原理数学モデルとデータ駆動システムを組み合わせて両方のアプローチの利点を享受するハイブリッド技術に興味があります。
論文 参考訳(メタデータ) (2020-12-15T16:29:49Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。