論文の概要: User-Centric Federated Learning
- arxiv url: http://arxiv.org/abs/2110.09869v1
- Date: Tue, 19 Oct 2021 11:49:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-20 15:04:41.128787
- Title: User-Centric Federated Learning
- Title(参考訳): ユーザ中心の連合学習
- Authors: Mohamad Mestoukirdi, Matteo Zecchin, David Gesbert, Qianrui Li, and
Nicolas Gresset
- Abstract要約: 本稿では,学習方式の基本的利点を維持しつつ,パーソナライズされたストリーム数を制限するブロードキャストプロトコルを提案する。
我々のアプローチは、他の競合するベースラインソリューションと比較して、パーソナライズ能力の向上、収束の高速化、通信効率の向上を享受できることが示されている。
- 参考スコア(独自算出の注目度): 20.830970477768485
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Data heterogeneity across participating devices poses one of the main
challenges in federated learning as it has been shown to greatly hamper its
convergence time and generalization capabilities. In this work, we address this
limitation by enabling personalization using multiple user-centric aggregation
rules at the parameter server. Our approach potentially produces a personalized
model for each user at the cost of some extra downlink communication overhead.
To strike a trade-off between personalization and communication efficiency, we
propose a broadcast protocol that limits the number of personalized streams
while retaining the essential advantages of our learning scheme. Through
simulation results, our approach is shown to enjoy higher personalization
capabilities, faster convergence, and better communication efficiency compared
to other competing baseline solutions.
- Abstract(参考訳): 参加するデバイス間のデータの異質性は、その収束時間と一般化能力を著しく阻害することが示されているため、フェデレートラーニングにおける主要な課題の1つとなる。
本稿では,パラメータサーバにおいて複数のユーザ中心の集約ルールを用いてパーソナライズを行うことにより,この制限に対処する。
当社のアプローチは、ダウンリンク通信のオーバーヘッドを犠牲にして、各ユーザに対してパーソナライズされたモデルを生成する可能性がある。
本稿では,パーソナライズとコミュニケーション効率のトレードオフを打つために,学習方式の基本的利点を維持しつつ,パーソナライズされたストリーム数を制限するブロードキャストプロトコルを提案する。
シミュレーション結果を通じて,提案手法は,他の競合ソリューションと比較して,パーソナライズ能力,収束の高速化,通信効率の向上を享受できることが示された。
関連論文リスト
- PP-TIL: Personalized Planning for Autonomous Driving with Instance-based Transfer Imitation Learning [4.533437433261497]
個人化された動作計画のためのインスタンスベースの伝達模倣学習手法を提案する。
ユーザ・デモからスタイル特徴分布を抽出し、ユーザ・スタイルの近似の正規化項を構築する。
本手法は,基本手法と比較して,スパースユーザデータによるオーバーフィッティング問題を緩和する。
論文 参考訳(メタデータ) (2024-07-26T07:51:11Z) - Decentralized Personalized Federated Learning [4.5836393132815045]
私たちは、パーソナライズされたモデルのトレーニングに適したコラボレータを選択する際に、各クライアントをガイドするコラボレーショングラフの作成に重点を置いています。
従来の手法とは違って,クライアントの欲求関係を考慮し,より粒度の細かい共同作業者を特定する。
これを実現するために,制約付きアルゴリズムを用いた二段階最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-10T17:58:48Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - FedJETs: Efficient Just-In-Time Personalization with Federated Mixture
of Experts [48.78037006856208]
FedJETsは、Federated Learning(FL)セットアップ内でMixture-of-Experts(MoE)フレームワークを使用することで、新しいソリューションである。
我々の方法は、クライアントの多様性を活用して、クラスのサブセットの異なる専門家を訓練し、最も関係のある専門家に入力をルーティングするゲーティング機能を提供します。
我々の手法は、競争力のあるゼロショット性能を維持しながら、アートFL設定時の精度を最大18%向上させることができる。
論文 参考訳(メタデータ) (2023-06-14T15:47:52Z) - User-Centric Federated Learning: Trading off Wireless Resources for
Personalization [18.38078866145659]
フェデレートラーニング(FL)システムでは、統計的不均一性はアルゴリズム収束時間を増やし、一般化性能を低下させる。
FLが課すプライバシー制約に違反することなく、上記の問題に対処するためには、パーソナライズされたFLメソッドは、データに直接アクセスすることなく、統計的に類似したクライアントを結合する必要がある。
本研究では,容易に利用できる勾配情報に基づいて,FLクライアント毎にパーソナライズされたモデルを生成可能なユーザ中心集約ルールを設計する。
提案アルゴリズムは,平均精度,ノード性能,通信オーバヘッドの訓練において,パーソナライズされたFLベースラインを上回っている。
論文 参考訳(メタデータ) (2023-04-25T15:45:37Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - Federated Pruning: Improving Neural Network Efficiency with Federated
Learning [24.36174705715827]
フェデレーテッド・プルーニング(Federated Pruning)は、フェデレーテッド・セッティングの下で縮小モデルのトレーニングを行う。
異なる刈り取り方式を探索し,提案手法の有効性の実証的証拠を提供する。
論文 参考訳(メタデータ) (2022-09-14T00:48:37Z) - On Differential Privacy for Federated Learning in Wireless Systems with
Multiple Base Stations [90.53293906751747]
複数の基地局とセル間干渉を持つ無線システムにおける連合学習モデルを考える。
本稿では,学習過程の収束挙動を,その最適性ギャップの上限を導出することによって示す。
提案するスケジューラは,ランダムなスケジューラと比較して予測平均精度を向上する。
論文 参考訳(メタデータ) (2022-08-25T03:37:11Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - DisPFL: Towards Communication-Efficient Personalized Federated Learning
via Decentralized Sparse Training [84.81043932706375]
本稿では,分散型(ピアツーピア)通信プロトコルであるDis-PFLにおいて,新たな個人化フェデレーション学習フレームワークを提案する。
Dis-PFLはパーソナライズされたスパースマスクを使用して、エッジ上のスパースローカルモデルをカスタマイズする。
本手法は,計算複雑性の異なる異種ローカルクライアントに容易に適応できることを実証する。
論文 参考訳(メタデータ) (2022-06-01T02:20:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。