論文の概要: DePRL: Achieving Linear Convergence Speedup in Personalized
Decentralized Learning with Shared Representations
- arxiv url: http://arxiv.org/abs/2312.10815v1
- Date: Sun, 17 Dec 2023 20:53:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-19 14:20:06.499291
- Title: DePRL: Achieving Linear Convergence Speedup in Personalized
Decentralized Learning with Shared Representations
- Title(参考訳): DePRL:共有表現を用いた個人化分散学習における線形収束高速化の実現
- Authors: Guojun Xiong, Gang Yan, Shiqiang Wang, Jian Li
- Abstract要約: 本稿では,共有表現を用いた分散学習アルゴリズムDePRLを提案する。
初めて、DePRLは一般非線形表現との収束の証明可能な線形高速化を実現する。
- 参考スコア(独自算出の注目度): 31.47686582044592
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decentralized learning has emerged as an alternative method to the popular
parameter-server framework which suffers from high communication burden,
single-point failure and scalability issues due to the need of a central
server. However, most existing works focus on a single shared model for all
workers regardless of the data heterogeneity problem, rendering the resulting
model performing poorly on individual workers. In this work, we propose a novel
personalized decentralized learning algorithm named DePRL via shared
representations. Our algorithm relies on ideas from representation learning
theory to learn a low-dimensional global representation collaboratively among
all workers in a fully decentralized manner, and a user-specific
low-dimensional local head leading to a personalized solution for each worker.
We show that DePRL achieves, for the first time, a provable linear speedup for
convergence with general non-linear representations (i.e., the convergence rate
is improved linearly with respect to the number of workers). Experimental
results support our theoretical findings showing the superiority of our method
in data heterogeneous environments.
- Abstract(参考訳): 分散学習は、中央サーバの必要性による通信負荷、単一ポイント障害、スケーラビリティの問題に悩まされる一般的なパラメータサーバフレームワークに代わる方法として登場した。
しかしながら、既存のほとんどの作業は、データの不均一性の問題にかかわらず、すべての作業者に対して単一の共有モデルにフォーカスしており、結果として得られたモデルは個々の作業者に対してパフォーマンスが悪くなる。
本研究では,共有表現を用いた分散学習アルゴリズムDePRLを提案する。
本アルゴリズムは, 表現学習理論からのアイデアに基づいて, 全作業者間で協調的に低次元グローバル表現を学習し, 作業者ごとのパーソナライズされたソリューションへと導く, ユーザ固有の低次元ローカルヘッドである。
deprlは, 一般の非線形表現を用いた収束の証明可能な線形高速化(つまり, 作業者数に対して収束率を線形に改善する)を初めて達成することを示す。
実験結果は,データ不均質環境における本手法の優越性を示す理論的知見である。
関連論文リスト
- FedSPD: A Soft-clustering Approach for Personalized Decentralized Federated Learning [18.38030098837294]
フェデレーション学習は、分散クライアントがローカルデータを使用して機械学習モデルを協調的にトレーニングするためのフレームワークである。
分散環境のための効率的パーソナライズされたフェデレーション学習アルゴリズムであるFedSPDを提案する。
低接続性ネットワークにおいてもFedSPDが正確なモデルを学ぶことを示す。
論文 参考訳(メタデータ) (2024-10-24T15:48:34Z) - Serverless Federated AUPRC Optimization for Multi-Party Collaborative
Imbalanced Data Mining [119.89373423433804]
有効指標としてAUPRC(Area Under Precision-Recall)を導入した。
サーバーレスのマルチパーティ共同トレーニングは、サーバーノードのボトルネックを避けることで通信コストを削減できる。
本稿では,AUPRCを直接最適化する ServerLess biAsed sTochastic gradiEnt (SLATE) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-06T06:51:32Z) - Personalized Federated Learning with Feature Alignment and Classifier
Collaboration [13.320381377599245]
データの不均一性は、フェデレートラーニングにおける最も難しい問題の1つです。
ディープニューラルネットワークベースのタスクにおけるそのようなアプローチの1つは、共有された特徴表現を採用し、クライアントごとにカスタマイズされた分類子ヘッドを学ぶことである。
本研究では,グローバルなセマンティックな知識を活用して,より優れた表現を学習することで,ローカル・グローバルな特徴アライメントを実現する。
論文 参考訳(メタデータ) (2023-06-20T19:58:58Z) - DisPFL: Towards Communication-Efficient Personalized Federated Learning
via Decentralized Sparse Training [84.81043932706375]
本稿では,分散型(ピアツーピア)通信プロトコルであるDis-PFLにおいて,新たな個人化フェデレーション学習フレームワークを提案する。
Dis-PFLはパーソナライズされたスパースマスクを使用して、エッジ上のスパースローカルモデルをカスタマイズする。
本手法は,計算複雑性の異なる異種ローカルクライアントに容易に適応できることを実証する。
論文 参考訳(メタデータ) (2022-06-01T02:20:57Z) - RelaySum for Decentralized Deep Learning on Heterogeneous Data [71.36228931225362]
分散機械学習では、労働者はローカルデータのモデル更新を計算する。
労働者は中心的な調整なしに隣人とのみ通信するため、これらの更新はネットワーク上で徐々に伝播する。
このパラダイムは、全接続のないネットワーク上での分散トレーニングを可能にし、データのプライバシ保護と、データセンタでの分散トレーニングの通信コストの削減を支援する。
論文 参考訳(メタデータ) (2021-10-08T14:55:32Z) - Exploiting Shared Representations for Personalized Federated Learning [54.65133770989836]
本稿では,クライアント間の共有データ表現と,クライアント毎のユニークなローカルヘッダを学習するための,新しいフェデレーション学習フレームワークとアルゴリズムを提案する。
提案アルゴリズムは, クライアント間の分散計算能力を利用して, 表現の更新毎に低次元の局所パラメータに対して, 多数の局所更新を行う。
この結果は、データ分布間の共有低次元表現を学習することを目的とした、幅広い種類の問題に対するフェデレーション学習以上の関心を持っている。
論文 参考訳(メタデータ) (2021-02-14T05:36:25Z) - Quasi-Global Momentum: Accelerating Decentralized Deep Learning on
Heterogeneous Data [77.88594632644347]
ディープラーニングモデルの分散トレーニングは、ネットワーク上でデータプライバシとデバイス上での学習を可能にする重要な要素である。
現実的な学習シナリオでは、異なるクライアントのローカルデータセットに異質性が存在することが最適化の課題となる。
本稿では,この分散学習の難しさを軽減するために,運動量に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2021-02-09T11:27:14Z) - A Low Complexity Decentralized Neural Net with Centralized Equivalence
using Layer-wise Learning [49.15799302636519]
我々は、分散処理ノード(労働者)で最近提案された大規模ニューラルネットワークをトレーニングするために、低複雑性分散学習アルゴリズムを設計する。
我々の設定では、トレーニングデータは作業者間で分散されるが、プライバシやセキュリティ上の懸念からトレーニングプロセスでは共有されない。
本研究では,データが一箇所で利用可能であるかのように,等価な学習性能が得られることを示す。
論文 参考訳(メタデータ) (2020-09-29T13:08:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。