論文の概要: FedCP: Separating Feature Information for Personalized Federated
Learning via Conditional Policy
- arxiv url: http://arxiv.org/abs/2307.01217v2
- Date: Sat, 28 Oct 2023 08:05:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 21:04:53.253288
- Title: FedCP: Separating Feature Information for Personalized Federated
Learning via Conditional Policy
- Title(参考訳): FedCP:条件付き政策による個人化フェデレーション学習のための特徴情報の分離
- Authors: Jianqing Zhang, Yang Hua, Hao Wang, Tao Song, Zhengui Xue, Ruhui Ma,
and Haibing Guan
- Abstract要約: フェデレート条件付きポリシー(FedCP)は,各サンプルに対して,グローバル情報とパーソナライズされた情報を特徴として分離する条件付きポリシーを生成する。
コンピュータビジョンと自然言語処理の分野での実験では、FedCPは最先端の11の手法を最大6.69%上回っている。
- 参考スコア(独自算出の注目度): 31.424363052009884
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recently, personalized federated learning (pFL) has attracted increasing
attention in privacy protection, collaborative learning, and tackling
statistical heterogeneity among clients, e.g., hospitals, mobile smartphones,
etc. Most existing pFL methods focus on exploiting the global information and
personalized information in the client-level model parameters while neglecting
that data is the source of these two kinds of information. To address this, we
propose the Federated Conditional Policy (FedCP) method, which generates a
conditional policy for each sample to separate the global information and
personalized information in its features and then processes them by a global
head and a personalized head, respectively. FedCP is more fine-grained to
consider personalization in a sample-specific manner than existing pFL methods.
Extensive experiments in computer vision and natural language processing
domains show that FedCP outperforms eleven state-of-the-art methods by up to
6.69%. Furthermore, FedCP maintains its superiority when some clients
accidentally drop out, which frequently happens in mobile settings. Our code is
public at https://github.com/TsingZ0/FedCP.
- Abstract(参考訳): 近年,プライバシ保護や協調学習,病院や携帯電話などのクライアント間の統計的不均一性に対処する手段として,パーソナライズド・フェデレーション・ラーニング(pFL)が注目されている。
既存のpFL手法の多くは、クライアントレベルのモデルパラメータのグローバルな情報とパーソナライズされた情報を活用することに焦点を当てている。
これを解決するために,各サンプルに対して,グローバル情報とパーソナライズされた情報を分離し,それぞれグローバルヘッドとパーソナライズされたヘッドで処理するための条件ポリシーを生成するフェデレーション条件ポリシー(FedCP)手法を提案する。
FedCPは、既存のpFL法よりも、サンプル特異的なパーソナライズを考慮に入れやすい。
コンピュータビジョンと自然言語処理領域における大規模な実験により、FedCPは最先端の11の手法を最大6.69%上回っている。
さらに、FedCPは、あるクライアントが誤ってドロップアウトしたときにその優位性を維持している。
私たちのコードはhttps://github.com/TsingZ0/FedCPで公開されています。
関連論文リスト
- FedP3: Federated Personalized and Privacy-friendly Network Pruning under Model Heterogeneity [82.5448598805968]
我々は、フェデレートされたパーソナライズされたプライバシフレンドリーなネットワークプルーニングを表現する、効果的で適応可能なフェデレーションフレームワークであるFedP3を提案する。
我々は、FedP3とその局所微分プライベート変種DP-FedP3の理論解釈を提供し、それらの効率を理論的に検証する。
論文 参考訳(メタデータ) (2024-04-15T14:14:05Z) - FedSelect: Personalized Federated Learning with Customized Selection of Parameters for Fine-Tuning [9.22574528776347]
FedSelect は Lottery Ticket 仮説に使用される反復的なサブネットワーク発見手順にインスパイアされた新しい PFL アルゴリズムである。
我々は、FedSelectがクライアントデータの不均一性設定に挑戦して、最近の最先端のPFLアルゴリズムより優れていることを示す。
論文 参考訳(メタデータ) (2024-04-03T05:36:21Z) - PPFL: A Personalized Federated Learning Framework for Heterogeneous
Population [30.51508591732483]
我々は、PPFLと呼ばれるフェデレートラーニングのパラダイムの中で、フレキシブルで解釈可能なパーソナライズされたフレームワークを開発する。
標準モデルを利用することで、不均一性をこれらのベクトルに対するクライアントの好みとしてモデル化し、メンバーシップの好みを利用する。
本研究は,病理学的特徴と実践的データセットの両方について実験を行い,PPFLの有効性を検証した。
論文 参考訳(メタデータ) (2023-10-22T16:06:27Z) - Rethinking Client Drift in Federated Learning: A Logit Perspective [125.35844582366441]
フェデレートラーニング(FL)は、複数のクライアントが分散した方法で協調的に学習し、プライバシ保護を可能にする。
その結果,局所モデルとグローバルモデルとのロジット差は,モデルが継続的に更新されるにつれて増大することがわかった。
我々はFedCSDと呼ばれる新しいアルゴリズムを提案する。FedCSDは、ローカルモデルとグローバルモデルを調整するためのフェデレーションフレームワークにおけるクラスプロトタイプの類似度蒸留である。
論文 参考訳(メタデータ) (2023-08-20T04:41:01Z) - Personalized Federated Learning on Long-Tailed Data via Adversarial
Feature Augmentation [24.679535905451758]
PFLは、プライバシを保存する方法で、すべてのクライアントの知識に基づいて、各クライアントのパーソナライズされたモデルを学ぶことを目的としている。
既存のPFL法では、全てのクライアントにわたる基礎となるグローバルデータが、ロングテール分布を考慮せずに均一に分散されていると仮定している。
PFLにおけるこの共同問題に対処するために,FedAFA(Federated Learning with Adversarial Feature Augmentation)を提案する。
論文 参考訳(メタデータ) (2023-03-27T13:00:20Z) - Visual Prompt Based Personalized Federated Learning [83.04104655903846]
pFedPTと呼ばれる画像分類タスクのための新しいPFLフレームワークを提案し、クライアントのローカルデータ配信情報を暗黙的に表現するためにパーソナライズされた視覚的プロンプトを利用する。
CIFAR10とCIFAR100データセットの実験では、pFedPTは様々な設定でいくつかの最先端(SOTA)PFLアルゴリズムより優れていた。
論文 参考訳(メタデータ) (2023-03-15T15:02:15Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss Approximations [53.268801169075836]
我々は,フェデレーション学習のための新しいプライバシ保護手法であるFedLAP-DPを提案する。
公式なプライバシー分析は、FedLAP-DPが典型的な勾配共有方式と同じプライバシーコストを発生させることを示している。
提案手法は, 通常の勾配共有法に比べて高速な収束速度を示す。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z) - PGFed: Personalize Each Client's Global Objective for Federated Learning [7.810284483002312]
本稿では,各クライアントが自身のグローバルな目的をパーソナライズ可能な,パーソナライズされたFLフレームワークを提案する。
大規模な(O(N2))通信オーバーヘッドと潜在的なプライバシリークを回避するため、各クライアントのリスクは、他のクライアントの適応的リスクアグリゲーションの1次近似によって推定される。
異なるフェデレーション条件下での4つのデータセットに対する実験により,従来の最先端手法よりも一貫したPGFの改良が示された。
論文 参考訳(メタデータ) (2022-12-02T21:16:39Z) - Federated Learning in Non-IID Settings Aided by Differentially Private
Synthetic Data [20.757477553095637]
Federated Learning(FL)は、クライアントが機械学習モデルを協調的にトレーニングすることを可能にする、プライバシプロモーティングフレームワークである。
連合学習における大きな課題は、局所データが不均一であるときに生じる。
我々は、クライアントが変動自動エンコーダをデプロイして、遅延データ表現の微分プライベートな手段を用いて、ローカルデータセットを合成するFLアルゴリズムであるFedDPMSを提案する。
論文 参考訳(メタデータ) (2022-06-01T18:00:48Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - FedNLP: A Research Platform for Federated Learning in Natural Language
Processing [55.01246123092445]
NLPのフェデレーションラーニングのための研究プラットフォームであるFedNLPを紹介します。
FedNLPは、テキスト分類、シーケンスタグ付け、質問応答、Seq2seq生成、言語モデリングなど、NLPで一般的なタスクの定式化をサポートしている。
FedNLPによる予備実験では、分散型データセットと集中型データセットの学習には大きなパフォーマンスギャップが存在することが明らかになった。
論文 参考訳(メタデータ) (2021-04-18T11:04:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。