論文の概要: Learn What You Need in Personalized Federated Learning
- arxiv url: http://arxiv.org/abs/2401.08327v1
- Date: Tue, 16 Jan 2024 12:45:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 14:15:07.295450
- Title: Learn What You Need in Personalized Federated Learning
- Title(参考訳): 個人化フェデレーション学習に必要なものを学ぶ
- Authors: Kexin Lv, Rui Ye, Xiaolin Huang, Jie Yang and Siheng Chen
- Abstract要約: $textitLearn2pFed$は、アルゴリズムに基づくパーソナライズされたフェデレーション学習フレームワークである。
我々は、textitLearn2pFed$が、従来のパーソナライズされたフェデレーション学習方法よりも大幅に優れていることを示す。
- 参考スコア(独自算出の注目度): 53.83081622573734
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personalized federated learning aims to address data heterogeneity across
local clients in federated learning. However, current methods blindly
incorporate either full model parameters or predefined partial parameters in
personalized federated learning. They fail to customize the collaboration
manner according to each local client's data characteristics, causing
unpleasant aggregation results. To address this essential issue, we propose
$\textit{Learn2pFed}$, a novel algorithm-unrolling-based personalized federated
learning framework, enabling each client to adaptively select which part of its
local model parameters should participate in collaborative training. The key
novelty of the proposed $\textit{Learn2pFed}$ is to optimize each local model
parameter's degree of participant in collaboration as learnable parameters via
algorithm unrolling methods. This approach brings two benefits: 1)
mathmatically determining the participation degree of local model parameters in
the federated collaboration, and 2) obtaining more stable and improved
solutions. Extensive experiments on various tasks, including regression,
forecasting, and image classification, demonstrate that $\textit{Learn2pFed}$
significantly outperforms previous personalized federated learning methods.
- Abstract(参考訳): パーソナライズされたフェデレーション学習は、フェデレーション学習において、ローカルクライアント間のデータの異質性に対処することを目的としている。
しかし、現在の手法では、パーソナライズされたフェデレーション学習において、完全なモデルパラメータまたは事前に定義された部分パラメータのいずれかを盲目的に取り入れている。
彼らは各ローカルクライアントのデータ特性に応じて協調方式をカスタマイズできず、不快な集約結果を引き起こす。
この本質的な問題に対処するために、我々は、新しいアルゴリズム・ロールベースパーソナライズされたフェデレーション学習フレームワークである$\textit{learn2pfed}$を提案する。
提案されている$\textit{learn2pfed}$ の重要な新しさは、アルゴリズムの展開メソッドを通じて学習可能なパラメータとして、各ローカルモデルパラメータの参加度を最適化することである。
このアプローチには2つの利点があります
1)連合コラボレーションにおける局所モデルパラメータの参加度を数学的に決定し、
2) より安定して改善されたソリューションを得る。
回帰、予測、画像分類など、様々なタスクに対する大規模な実験により、$\textit{Learn2pFed}$が従来のパーソナライズド・フェデレーションド・ラーニング・メソッドを大幅に上回ることを示した。
関連論文リスト
- Decoupling General and Personalized Knowledge in Federated Learning via Additive and Low-Rank Decomposition [26.218506124446826]
パーソナライズド・フェデレーション・ラーニング(Personalized Federated Learning)の主な戦略は、一般的な知識(クライアント間で共有される)とクライアント固有の知識を分離することである。
この問題に対処するためにパラメータ分解加算を用いた単純だが効果的なPFLパラダイムであるFedDecompを紹介する。
複数のデータセットにまたがる実験結果は、FedDecompが最先端のメソッドを最大4.9%上回っていることを示している。
論文 参考訳(メタデータ) (2024-06-28T14:01:22Z) - Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - Personalized Federated Learning via Sequential Layer Expansion in Representation Learning [0.0]
フェデレーション学習は、個々のクライアントデバイス上で分散トレーニングを行い、中央サーバでモデルウェイトのみを共有することによって、クライアントのプライバシを保証する。
本稿では,ディープラーニングモデル全体をより密に分割した部分に分割し,適切なスケジューリング手法を適用した表現学習に基づく新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-04-27T06:37:19Z) - Cross-Silo Federated Learning Across Divergent Domains with Iterative Parameter Alignment [4.95475852994362]
フェデレートラーニング(Federated Learning)は、リモートクライアント間で機械学習モデルをトレーニングする手法である。
我々は、共通の目的のために最適化されたNモデルを学ぶために、典型的な連合学習環境を再構築する。
この技術は、最先端のアプローチと比較して、様々なデータパーティションにおける競合的な結果が得られることがわかった。
論文 参考訳(メタデータ) (2023-11-08T16:42:14Z) - Decentralized Personalized Online Federated Learning [13.76896613426515]
バニラ連合学習は、オンライン環境での学習、各クライアントでパーソナライズされたモデル学習、分散環境での学習をサポートしない。
我々は,これら3つの側面を同時に考慮した,分散化された個人化オンラインフェデレーションラーニングを新たに提案する。
提案手法の有効性とロバスト性を実世界の3項目推薦データセットと1つの空気質予測データセットで検証した。
論文 参考訳(メタデータ) (2023-11-08T16:42:10Z) - FedSampling: A Better Sampling Strategy for Federated Learning [81.85411484302952]
フェデレートラーニング(FL)は、プライバシを保存する方法で分散化されたデータからモデルを学習するための重要なテクニックである。
既存のFLメソッドは通常、各ラウンドでローカルモデル学習のために一様にクライアントをサンプリングする。
フェデレート学習のための新しいデータ一様サンプリング戦略(FedSampling)を提案する。
論文 参考訳(メタデータ) (2023-06-25T13:38:51Z) - Personalized Federated Learning with Feature Alignment and Classifier
Collaboration [13.320381377599245]
データの不均一性は、フェデレートラーニングにおける最も難しい問題の1つです。
ディープニューラルネットワークベースのタスクにおけるそのようなアプローチの1つは、共有された特徴表現を採用し、クライアントごとにカスタマイズされた分類子ヘッドを学ぶことである。
本研究では,グローバルなセマンティックな知識を活用して,より優れた表現を学習することで,ローカル・グローバルな特徴アライメントを実現する。
論文 参考訳(メタデータ) (2023-06-20T19:58:58Z) - Optimizing Server-side Aggregation For Robust Federated Learning via
Subspace Training [80.03567604524268]
クライアント間の非IIDデータ分散と中毒攻撃は、現実世界のフェデレーション学習システムにおける2つの大きな課題である。
サーバ側集約プロセスを最適化する汎用的なアプローチであるSmartFLを提案する。
本稿では,SmartFLの収束と一般化能力に関する理論的解析を行う。
論文 参考訳(メタデータ) (2022-11-10T13:20:56Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - Exploiting Shared Representations for Personalized Federated Learning [54.65133770989836]
本稿では,クライアント間の共有データ表現と,クライアント毎のユニークなローカルヘッダを学習するための,新しいフェデレーション学習フレームワークとアルゴリズムを提案する。
提案アルゴリズムは, クライアント間の分散計算能力を利用して, 表現の更新毎に低次元の局所パラメータに対して, 多数の局所更新を行う。
この結果は、データ分布間の共有低次元表現を学習することを目的とした、幅広い種類の問題に対するフェデレーション学習以上の関心を持っている。
論文 参考訳(メタデータ) (2021-02-14T05:36:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。