論文の概要: Consensus Driven Learning
- arxiv url: http://arxiv.org/abs/2005.10300v1
- Date: Wed, 20 May 2020 18:24:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 05:05:57.962825
- Title: Consensus Driven Learning
- Title(参考訳): 合意駆動学習
- Authors: Kyle Crandall and Dustin Webb
- Abstract要約: 本稿では,信頼できないネットワーク上での非同期更新を用いて,ノードのネットワークがトレーニングを調整できる分散分散型学習手法を提案する。
これは、様々なノードを調整するために、分散平均コンセンサスアルゴリズムからインスピレーションを得て達成される。
この調整手法により,高度に偏りのあるデータセットや間欠的な通信障害の存在下でモデルを学習できることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: As the complexity of our neural network models grow, so too do the data and
computation requirements for successful training. One proposed solution to this
problem is training on a distributed network of computational devices, thus
distributing the computational and data storage loads. This strategy has
already seen some adoption by the likes of Google and other companies. In this
paper we propose a new method of distributed, decentralized learning that
allows a network of computation nodes to coordinate their training using
asynchronous updates over an unreliable network while only having access to a
local dataset. This is achieved by taking inspiration from Distributed
Averaging Consensus algorithms to coordinate the various nodes. Sharing the
internal model instead of the training data allows the original raw data to
remain with the computation node. The asynchronous nature and lack of
centralized coordination allows this paradigm to function with limited
communication requirements. We demonstrate our method on the MNIST, Fashion
MNIST, and CIFAR10 datasets. We show that our coordination method allows models
to be learned on highly biased datasets, and in the presence of intermittent
communication failure.
- Abstract(参考訳): ニューラルネットワークモデルの複雑さが増すにつれて、トレーニング成功のためのデータと計算要件も増大します。
この問題に対する1つの解決策は、計算機器の分散ネットワークでのトレーニングであり、計算とデータストレージの負荷を分散する。
この戦略は、すでにgoogleや他の企業によって採用されている。
本稿では,ローカルデータセットのみにアクセスしながら,信頼できないネットワーク上での非同期更新を用いて,計算ノードのネットワークがトレーニングを協調する分散分散学習手法を提案する。
これは分散平均化コンセンサスアルゴリズムから着想を得て、様々なノードを協調させることによって達成される。
トレーニングデータの代わりに内部モデルを共有することで、元の生データは計算ノードに残ることができる。
非同期性と集中的なコーディネーションの欠如により、このパラダイムは限られた通信要件で機能することができる。
提案手法は,MNIST,Fashion MNIST,CIFAR10データセット上で実証する。
この調整手法により,高度に偏りのあるデータセットや間欠的な通信障害の存在下でモデルを学習できることを示す。
関連論文リスト
- Communication-Efficient Decentralized Federated Learning via One-Bit
Compressive Sensing [52.402550431781805]
分散連合学習(DFL)は、様々なアプリケーションにまたがる実用性によって人気を博している。
集中型バージョンと比較して、DFLの多数のノード間で共有モデルをトレーニングするのはより難しい。
我々は,iADM (iexact alternating direction method) の枠組みに基づく新しいアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-08-31T12:22:40Z) - Online Distributed Learning with Quantized Finite-Time Coordination [0.4910937238451484]
私たちの設定では、エージェントのセットは、ストリーミングデータから学習モデルを協調的にトレーニングする必要があります。
本稿では,量子化された有限時間協調プロトコルに依存する分散アルゴリズムを提案する。
提案アルゴリズムの性能を,オンラインソリューションからの平均距離の観点から解析する。
論文 参考訳(メタデータ) (2023-07-13T08:36:15Z) - Towards a Better Theoretical Understanding of Independent Subnetwork Training [56.24689348875711]
独立サブネットワークトレーニング(IST)の理論的考察
ISTは、上記の問題を解決するための、最近提案され、非常に効果的である。
圧縮通信を用いた分散手法など,ISTと代替手法の基本的な違いを同定する。
論文 参考訳(メタデータ) (2023-06-28T18:14:22Z) - RelaySum for Decentralized Deep Learning on Heterogeneous Data [71.36228931225362]
分散機械学習では、労働者はローカルデータのモデル更新を計算する。
労働者は中心的な調整なしに隣人とのみ通信するため、これらの更新はネットワーク上で徐々に伝播する。
このパラダイムは、全接続のないネットワーク上での分散トレーニングを可能にし、データのプライバシ保護と、データセンタでの分散トレーニングの通信コストの削減を支援する。
論文 参考訳(メタデータ) (2021-10-08T14:55:32Z) - Decentralized federated learning of deep neural networks on non-iid data [0.6335848702857039]
分散環境でパーソナライズされたディープラーニングモデルを学ぶことの難しさに対処する。
本稿では,PENS(Performance-Based Neighbor Selection)という手法を提案する。
PENSは強力なベースラインに比べて高い精度を達成することができる。
論文 参考訳(メタデータ) (2021-07-18T19:05:44Z) - Clustered Federated Learning via Generalized Total Variation
Minimization [83.26141667853057]
本研究では,分散ネットワーク構造を持つローカルデータセットの局所的(あるいはパーソナライズされた)モデルを学習するための最適化手法について検討する。
我々の主要な概念的貢献は、総変動最小化(GTV)としてフェデレーション学習を定式化することである。
私たちのアルゴリズムの主な貢献は、完全に分散化されたフェデレーション学習アルゴリズムです。
論文 参考訳(メタデータ) (2021-05-26T18:07:19Z) - Unsupervised Learning for Asynchronous Resource Allocation in Ad-hoc
Wireless Networks [122.42812336946756]
集約グラフニューラルネットワーク(Agg-GNN)に基づく教師なし学習手法を設計する。
アクティベーションパターンを各ノードの特徴としてモデル化し,ポリシーに基づくリソース割り当て手法を訓練することにより,非同期性を捉える。
論文 参考訳(メタデータ) (2020-11-05T03:38:36Z) - A Low Complexity Decentralized Neural Net with Centralized Equivalence
using Layer-wise Learning [49.15799302636519]
我々は、分散処理ノード(労働者)で最近提案された大規模ニューラルネットワークをトレーニングするために、低複雑性分散学習アルゴリズムを設計する。
我々の設定では、トレーニングデータは作業者間で分散されるが、プライバシやセキュリティ上の懸念からトレーニングプロセスでは共有されない。
本研究では,データが一箇所で利用可能であるかのように,等価な学習性能が得られることを示す。
論文 参考訳(メタデータ) (2020-09-29T13:08:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。