論文の概要: Interlocking Backpropagation: Improving depthwise model-parallelism
- arxiv url: http://arxiv.org/abs/2010.04116v3
- Date: Thu, 7 Jul 2022 23:29:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 11:21:44.299442
- Title: Interlocking Backpropagation: Improving depthwise model-parallelism
- Title(参考訳): インターロッキングバックプロパゲーション:深さ方向モデル並列性の改善
- Authors: Aidan N. Gomez, Oscar Key, Kuba Perlin, Stephen Gou, Nick Frosst, Jeff
Dean, Yarin Gal
- Abstract要約: 地域学習とグローバル学習の中間戦略のクラスを紹介する。
これらの戦略は局所最適化の計算効率の利点の多くを保存している。
当社の戦略は,タスクパフォーマンスという点では地域学習を一貫して上回り,訓練効率では世界学習を上回ります。
- 参考スコア(独自算出の注目度): 28.97488430121607
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The number of parameters in state of the art neural networks has drastically
increased in recent years. This surge of interest in large scale neural
networks has motivated the development of new distributed training strategies
enabling such models. One such strategy is model-parallel distributed training.
Unfortunately, model-parallelism can suffer from poor resource utilisation,
which leads to wasted resources. In this work, we improve upon recent
developments in an idealised model-parallel optimisation setting: local
learning. Motivated by poor resource utilisation in the global setting and poor
task performance in the local setting, we introduce a class of intermediary
strategies between local and global learning referred to as interlocking
backpropagation. These strategies preserve many of the compute-efficiency
advantages of local optimisation, while recovering much of the task performance
achieved by global optimisation. We assess our strategies on both image
classification ResNets and Transformer language models, finding that our
strategy consistently out-performs local learning in terms of task performance,
and out-performs global learning in training efficiency.
- Abstract(参考訳): 近年,最先端のニューラルネットワークにおけるパラメータの数は大幅に増加している。
この大規模ニューラルネットワークへの関心の高まりは、そのようなモデルを可能にする新しい分散トレーニング戦略の開発を促した。
そのような戦略の1つはモデル並列分散トレーニングである。
残念ながら、モデル並列性はリソース利用の低さに悩まされ、リソースの浪費につながる。
そこで本研究では,モデル並列最適化を最適化する手法として,局所学習を提案する。
グローバル環境における資源活用率の低さと,ローカル環境におけるタスクパフォーマンスの低さに動機づけられ,インターロッキングバックプロパゲーションと呼ばれるローカル学習とグローバル学習の中間戦略のクラスを導入する。
これらの戦略は局所最適化の計算効率の利点の多くを保ちながら、グローバル最適化によって達成されたタスク性能の多くを回復する。
我々はResNetsとTransformer言語モデルの両方のイメージ分類戦略を評価し、我々の戦略はタスクパフォーマンスの点で局所学習を一貫して上回り、訓練効率においてグローバル学習を上回ります。
関連論文リスト
- Adaptive Global-Local Representation Learning and Selection for
Cross-Domain Facial Expression Recognition [54.334773598942775]
ドメインシフトは、クロスドメイン顔表情認識(CD-FER)において重要な課題となる
適応的グローバルローカル表現学習・選択フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-20T02:21:41Z) - Sensitivity-Aware Mixed-Precision Quantization and Width Optimization of Deep Neural Networks Through Cluster-Based Tree-Structured Parzen Estimation [4.748931281307333]
本稿では,個々のニューラルネットワーク層に対して最適なビット幅と層幅を自動的に選択する革新的な探索機構を提案する。
これにより、ディープニューラルネットワークの効率が著しく向上する。
論文 参考訳(メタデータ) (2023-08-12T00:16:51Z) - FedSoup: Improving Generalization and Personalization in Federated
Learning via Selective Model Interpolation [32.36334319329364]
クロスサイロフェデレーション学習(FL)は、データセンタに分散したデータセット上での機械学習モデルの開発を可能にする。
近年の研究では、現在のFLアルゴリズムは、分布シフトに直面した場合、局所的な性能とグローバルな性能のトレードオフに直面している。
地域とグローバルのパフォーマンスのトレードオフを最適化する新しいフェデレーションモデルスープ手法を提案する。
論文 参考訳(メタデータ) (2023-07-20T00:07:29Z) - Integrating Local Real Data with Global Gradient Prototypes for
Classifier Re-Balancing in Federated Long-Tailed Learning [60.41501515192088]
フェデレートラーニング(FL)は、グローバルモデルを協調的にトレーニングする複数のクライアントを含む、人気のある分散ラーニングパラダイムになっています。
データサンプルは通常、現実世界の長い尾の分布に従っており、分散化された長い尾のデータのFLは、貧弱なグローバルモデルをもたらす。
本研究では、局所的な実データとグローバルな勾配のプロトタイプを統合し、局所的なバランスの取れたデータセットを形成する。
論文 参考訳(メタデータ) (2023-01-25T03:18:10Z) - Tensor Decomposition based Personalized Federated Learning [12.420951968273574]
Federated Learning(FL)は、ユーザのプライベートデータを収集することなく、確実に協調的なトレーニングを実現する、新しい分散機械学習フレームワークである。
FLの頻繁なコミュニケーションと平均集約戦略により、統計多様性データや大規模モデルへのスケーリングが困難になる。
本稿では,分解に基づくパーソナライズドラーニング(TDPFed)と呼ばれるFLフレームワークを提案する。このフレームワークでは,テンソル化線形層と畳み込み層を持つ新しいテンソル化局所モデルを設計し,通信コストを削減する。
論文 参考訳(メタデータ) (2022-08-27T08:09:14Z) - Locally Supervised Learning with Periodic Global Guidance [19.41730292017383]
ニューラルネットワークの局所的ロスに基づくトレーニングにおいて,グローバルな目的を反復的に再現するために,周期的ガイド付き局所学習(PGL)を提案する。
本稿では,メモリフットプリントが低い場合に,簡単な周期的ガイダンス方式によって大幅な性能向上が期待できることを示す。
論文 参考訳(メタデータ) (2022-08-01T13:06:26Z) - RLFlow: Optimising Neural Network Subgraph Transformation with World
Models [0.0]
本稿では,ニューラルネットワークのアーキテクチャを最適化するためのモデルベースエージェントを提案する。
提案手法は, 共通の畳み込みネットワーク上での最先端技術の性能に適合し, トランスフォーマースタイルのアーキテクチャでは最大5%性能が向上することを示す。
論文 参考訳(メタデータ) (2022-05-03T11:52:54Z) - Learning to Continuously Optimize Wireless Resource in a Dynamic
Environment: A Bilevel Optimization Perspective [52.497514255040514]
この研究は、データ駆動メソッドが動的環境でリソース割り当て戦略を継続的に学び、最適化することを可能にする新しいアプローチを開発しています。
学習モデルが新たなエピソードに段階的に適応できるように、連続学習の概念を無線システム設計に組み込むことを提案する。
我々の設計は、異なるデータサンプルにまたがる公平性を保証する、新しい二段階最適化定式化に基づいている。
論文 参考訳(メタデータ) (2021-05-03T07:23:39Z) - Local Critic Training for Model-Parallel Learning of Deep Neural
Networks [94.69202357137452]
そこで我々は,局所的批判訓練と呼ばれる新しいモデル並列学習手法を提案する。
提案手法は,畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)の両方において,階層群の更新プロセスの分離に成功したことを示す。
また,提案手法によりトレーニングされたネットワークを構造最適化に利用できることを示す。
論文 参考訳(メタデータ) (2021-02-03T09:30:45Z) - Unsupervised Learning for Asynchronous Resource Allocation in Ad-hoc
Wireless Networks [122.42812336946756]
集約グラフニューラルネットワーク(Agg-GNN)に基づく教師なし学習手法を設計する。
アクティベーションパターンを各ノードの特徴としてモデル化し,ポリシーに基づくリソース割り当て手法を訓練することにより,非同期性を捉える。
論文 参考訳(メタデータ) (2020-11-05T03:38:36Z) - Dynamic Federated Learning [57.14673504239551]
フェデレートラーニング(Federated Learning)は、マルチエージェント環境における集中的なコーディネーション戦略の包括的用語として登場した。
我々は、各イテレーションにおいて、利用可能なエージェントのランダムなサブセットがそのデータに基づいてローカル更新を実行する、フェデレートされた学習モデルを考える。
集約最適化問題に対する真の最小化器上の非定常ランダムウォークモデルの下で、アーキテクチャの性能は、各エージェントにおけるデータ変動率、各エージェントにおけるモデル変動率、アルゴリズムの学習率に逆比例する追跡項の3つの要因によって決定されることを示す。
論文 参考訳(メタデータ) (2020-02-20T15:00:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。