論文の概要: DIGEST: Fast and Communication Efficient Decentralized Learning with
Local Updates
- arxiv url: http://arxiv.org/abs/2307.07652v1
- Date: Fri, 14 Jul 2023 22:58:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 18:46:48.046227
- Title: DIGEST: Fast and Communication Efficient Decentralized Learning with
Local Updates
- Title(参考訳): DIGEST: ローカルアップデートによる高速かつ効率的な分散学習
- Authors: Peyman Gholami, Hulya Seferoglu
- Abstract要約: 広く検討されている分散学習アルゴリズムは、Gossipとランダムウォークベースの学習である。
高速で通信効率のよい非同期分散学習機構DIGESTを設計する。
我々は、ロジスティック回帰とディープニューラルネットワークResNet20のためのシングルストリームおよびマルチストリームDIGESTの性能を評価する。
- 参考スコア(独自算出の注目度): 6.315065315737582
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Two widely considered decentralized learning algorithms are Gossip and random
walk-based learning. Gossip algorithms (both synchronous and asynchronous
versions) suffer from high communication cost, while random-walk based learning
experiences increased convergence time. In this paper, we design a fast and
communication-efficient asynchronous decentralized learning mechanism DIGEST by
taking advantage of both Gossip and random-walk ideas, and focusing on
stochastic gradient descent (SGD). DIGEST is an asynchronous decentralized
algorithm building on local-SGD algorithms, which are originally designed for
communication efficient centralized learning. We design both single-stream and
multi-stream DIGEST, where the communication overhead may increase when the
number of streams increases, and there is a convergence and communication
overhead trade-off which can be leveraged. We analyze the convergence of
single- and multi-stream DIGEST, and prove that both algorithms approach to the
optimal solution asymptotically for both iid and non-iid data distributions. We
evaluate the performance of single- and multi-stream DIGEST for logistic
regression and a deep neural network ResNet20. The simulation results confirm
that multi-stream DIGEST has nice convergence properties; i.e., its convergence
time is better than or comparable to the baselines in iid setting, and
outperforms the baselines in non-iid setting.
- Abstract(参考訳): 広く検討されている分散学習アルゴリズムは、ゴシップとランダムウォークベースの学習である。
Gossipアルゴリズム(同期版と非同期版の両方)は通信コストが高く、ランダムウォークベースの学習経験は収束時間を増加させた。
本稿では,Gossipとランダムウォークの両方のアイデアを活用し,確率勾配勾配(SGD)に着目し,高速かつ通信効率のよい非同期分散学習機構DIGESTを設計する。
DIGESTは、ローカルSGDアルゴリズム上に構築された非同期分散アルゴリズムである。
我々は,ストリーム数の増加に伴って通信オーバーヘッドが増加する可能性があるシングルストリームとマルチストリームダイジェストの両方を設計,活用可能な収束および通信オーバーヘッドトレードオフが存在する。
単ストリームDIGESTと多ストリームDIGESTの収束を解析し、両アルゴリズムが最適解に漸近的に近づき、iidおよび非iidデータ分布に近づいたことを証明した。
我々は、ロジスティック回帰とディープニューラルネットワークResNet20のためのシングルストリームDIGESTの性能を評価する。
シミュレーションの結果,マルチストリームダイジェストは,iid設定のベースラインよりも収束時間の方が優れており,非iid設定のベースラインよりも優れていることがわかった。
関連論文リスト
- Boosting the Performance of Decentralized Federated Learning via Catalyst Acceleration [66.43954501171292]
本稿では,Catalytics Accelerationを導入し,DFedCataと呼ばれる促進型分散フェデレート学習アルゴリズムを提案する。
DFedCataは、パラメータの不整合に対処するMoreauエンベロープ関数と、アグリゲーションフェーズを加速するNesterovの外挿ステップの2つの主要コンポーネントで構成されている。
実験により, CIFAR10/100における収束速度と一般化性能の両面において, 提案アルゴリズムの利点を実証した。
論文 参考訳(メタデータ) (2024-10-09T06:17:16Z) - Faster Convergence with Less Communication: Broadcast-Based Subgraph
Sampling for Decentralized Learning over Wireless Networks [32.914407967052114]
$texttBASS$はD-SGDの収束を加速するために設計された放送ベースのサブグラフサンプリング手法である。
既存のリンクベースのスケジューリング手法と比較して,送信スロットが少ないため,$texttBASS$はより高速な収束を可能にする。
論文 参考訳(メタデータ) (2024-01-24T20:00:23Z) - Asynchronous Local Computations in Distributed Bayesian Learning [8.516532665507835]
本稿では,高速な計算と通信オーバヘッドを同時に低減するために,ゴシップに基づく通信を提案する。
我々は、特に低データ範囲において、より高速な初期収束と性能精度の向上を観察する。
UCI MLレポジトリのガンマ望遠鏡とmHealthデータセットで,それぞれ平均78%,90%以上の分類精度を達成した。
論文 参考訳(メタデータ) (2023-11-06T20:11:41Z) - Communication-Efficient Decentralized Federated Learning via One-Bit
Compressive Sensing [52.402550431781805]
分散連合学習(DFL)は、様々なアプリケーションにまたがる実用性によって人気を博している。
集中型バージョンと比較して、DFLの多数のノード間で共有モデルをトレーニングするのはより難しい。
我々は,iADM (iexact alternating direction method) の枠組みに基づく新しいアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-08-31T12:22:40Z) - Optimal Complexity in Non-Convex Decentralized Learning over
Time-Varying Networks [8.860889476382594]
時間変化ネットワークによる分散最適化は、機械学習の新たなパラダイムである。
大規模な深層トレーニングでは通信オーバーヘッドが大幅に削減され、特にノードの移動時の無線シナリオでは堅牢になる。
論文 参考訳(メタデータ) (2022-11-01T15:37:54Z) - Locally Asynchronous Stochastic Gradient Descent for Decentralised Deep
Learning [0.0]
Local Asynchronous SGD (LASGD) は、モデル同期にAll Reduceに依存する非同期分散アルゴリズムである。
ImageNetデータセット上の画像分類タスクにおいて、LASGDの性能を実証的に検証する。
論文 参考訳(メタデータ) (2022-03-24T14:25:15Z) - Coded Stochastic ADMM for Decentralized Consensus Optimization with Edge
Computing [113.52575069030192]
セキュリティ要件の高いアプリケーションを含むビッグデータは、モバイルデバイスやドローン、車両など、複数の異種デバイスに収集され、格納されることが多い。
通信コストとセキュリティ要件の制限のため、核融合センターにデータを集約するのではなく、分散的に情報を抽出することが最重要となる。
分散エッジノードを介してデータを局所的に処理するマルチエージェントシステムにおいて,モデルパラメータを学習する問題を考える。
分散学習モデルを開発するために,乗算器アルゴリズムの最小バッチ交互方向法(ADMM)のクラスについて検討した。
論文 参考訳(メタデータ) (2020-10-02T10:41:59Z) - A Low Complexity Decentralized Neural Net with Centralized Equivalence
using Layer-wise Learning [49.15799302636519]
我々は、分散処理ノード(労働者)で最近提案された大規模ニューラルネットワークをトレーニングするために、低複雑性分散学習アルゴリズムを設計する。
我々の設定では、トレーニングデータは作業者間で分散されるが、プライバシやセキュリティ上の懸念からトレーニングプロセスでは共有されない。
本研究では,データが一箇所で利用可能であるかのように,等価な学習性能が得られることを示す。
論文 参考訳(メタデータ) (2020-09-29T13:08:12Z) - FedPD: A Federated Learning Framework with Optimal Rates and Adaptivity
to Non-IID Data [59.50904660420082]
フェデレートラーニング(FL)は、分散データから学ぶための一般的なパラダイムになっています。
クラウドに移行することなく、さまざまなデバイスのデータを効果的に活用するために、Federated Averaging(FedAvg)などのアルゴリズムでは、"Computation then aggregate"(CTA)モデルを採用している。
論文 参考訳(メタデータ) (2020-05-22T23:07:42Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - Overlap Local-SGD: An Algorithmic Approach to Hide Communication Delays
in Distributed SGD [32.03967072200476]
We propose a algorithmic approach named OverlapLocal-Local-Local-SGD (Local momentum variant)。
各ノードにアンカーモデルを追加することでこれを実現する。
複数のローカルアップデートの後、ローカルにトレーニングされたモデルは、他の人と通信するのではなく、アンカーモデルへと引き戻される。
論文 参考訳(メタデータ) (2020-02-21T20:33:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。