論文の概要: GPFL: Simultaneously Learning Global and Personalized Feature
Information for Personalized Federated Learning
- arxiv url: http://arxiv.org/abs/2308.10279v3
- Date: Sat, 14 Oct 2023 03:20:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-18 04:00:25.465486
- Title: GPFL: Simultaneously Learning Global and Personalized Feature
Information for Personalized Federated Learning
- Title(参考訳): GPFL:個人化フェデレーション学習のためのグローバルおよびパーソナライズされた特徴情報同時学習
- Authors: Jianqing Zhang, Yang Hua, Hao Wang, Tao Song, Zhengui Xue, Ruhui Ma,
Jian Cao, Haibing Guan
- Abstract要約: GPFLと呼ばれる新しいpFL手法を提案し、各クライアントのグローバルおよびパーソナライズされた特徴情報を同時に学習する。
GPFLはオーバーフィッティングを軽減し、ベースラインの精度を最大8.99%向上させる。
- 参考スコア(独自算出の注目度): 32.884949308979465
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Federated Learning (FL) is popular for its privacy-preserving and
collaborative learning capabilities. Recently, personalized FL (pFL) has
received attention for its ability to address statistical heterogeneity and
achieve personalization in FL. However, from the perspective of feature
extraction, most existing pFL methods only focus on extracting global or
personalized feature information during local training, which fails to meet the
collaborative learning and personalization goals of pFL. To address this, we
propose a new pFL method, named GPFL, to simultaneously learn global and
personalized feature information on each client. We conduct extensive
experiments on six datasets in three statistically heterogeneous settings and
show the superiority of GPFL over ten state-of-the-art methods regarding
effectiveness, scalability, fairness, stability, and privacy. Besides, GPFL
mitigates overfitting and outperforms the baselines by up to 8.99% in accuracy.
- Abstract(参考訳): Federated Learning (FL)は、プライバシー保護と協調学習機能で人気がある。
近年、パーソナライズされたFL(pFL)は、統計的不均一性に対処し、FLにおけるパーソナライズを実現する能力に注目されている。
しかし, 特徴抽出の観点からは, 既存のpFL手法は, 地域訓練におけるグローバル・パーソナライズされた特徴情報の抽出にのみ焦点をあてており, pFLの協調学習とパーソナライゼーションの目標を達成できない。
そこで我々はGPFLと呼ばれる新しいpFL手法を提案し,各クライアントのグローバルかつパーソナライズされた特徴情報を同時に学習する。
3つの統計的に異質な環境で6つのデータセットについて広範な実験を行い、有効性、スケーラビリティ、公平性、安定性、プライバシに関する10の最先端手法に対するgpflの優位性を示す。
さらに、GPFLはオーバーフィッティングを軽減し、ベースラインの精度を最大8.99%向上させる。
関連論文リスト
- A Survey on Efficient Federated Learning Methods for Foundation Model
Training [66.19763977571114]
フェデレーテッド・ラーニング(FL)は、多数のクライアントにわたるプライバシー保護協調トレーニングを促進するための確立した技術となっている。
Foundation Models (FM)の後、多くのディープラーニングアプリケーションでは現実が異なる。
FLアプリケーションに対するパラメータ効率細調整(PEFT)の利点と欠点について論じる。
論文 参考訳(メタデータ) (2024-01-09T10:22:23Z) - PFLlib: Personalized Federated Learning Algorithm Library [27.954706790789434]
PFLlibは総合的なpFLアルゴリズムライブラリであり、統合評価プラットフォームを備えている。
7つの古典的tFLアルゴリズムと27のpFLアルゴリズムを含む34の最先端FLアルゴリズムを実装した。
PFLlibはすでに850のスターと199のフォークをGitHubで獲得している。
論文 参考訳(メタデータ) (2023-12-08T12:03:08Z) - Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - Unlocking the Potential of Prompt-Tuning in Bridging Generalized and
Personalized Federated Learning [49.72857433721424]
Vision Transformer (ViT) と Visual Prompt Tuning (VPT) は、様々なコンピュータビジョンタスクの効率を改善して最先端のパフォーマンスを実現する。
本稿では,GFL(Generalized FL)とPFL(Personalized FL)を組み合わせた新しいアルゴリズムSGPTを提案する。
論文 参考訳(メタデータ) (2023-10-27T17:22:09Z) - PPFL: A Personalized Federated Learning Framework for Heterogeneous
Population [30.51508591732483]
我々は、PPFLと呼ばれるフェデレートラーニングのパラダイムの中で、フレキシブルで解釈可能なパーソナライズされたフレームワークを開発する。
標準モデルを利用することで、不均一性をこれらのベクトルに対するクライアントの好みとしてモデル化し、メンバーシップの好みを利用する。
本研究は,病理学的特徴と実践的データセットの両方について実験を行い,PPFLの有効性を検証した。
論文 参考訳(メタデータ) (2023-10-22T16:06:27Z) - PFL-GAN: When Client Heterogeneity Meets Generative Models in
Personalized Federated Learning [55.930403371398114]
パーソナライズドラーニング(PFL)のための新しいGAN(Generative Adversarial Network)の共有と集約戦略を提案する。
PFL-GANは、異なるシナリオにおけるクライアントの不均一性に対処する。より具体的には、まずクライアント間の類似性を学び、次に重み付けされた協調データアグリゲーションを開発する。
いくつかのよく知られたデータセットに対する厳密な実験による実験結果は、PFL-GANの有効性を示している。
論文 参考訳(メタデータ) (2023-08-23T22:38:35Z) - Personalized Federated Learning on Long-Tailed Data via Adversarial
Feature Augmentation [24.679535905451758]
PFLは、プライバシを保存する方法で、すべてのクライアントの知識に基づいて、各クライアントのパーソナライズされたモデルを学ぶことを目的としている。
既存のPFL法では、全てのクライアントにわたる基礎となるグローバルデータが、ロングテール分布を考慮せずに均一に分散されていると仮定している。
PFLにおけるこの共同問題に対処するために,FedAFA(Federated Learning with Adversarial Feature Augmentation)を提案する。
論文 参考訳(メタデータ) (2023-03-27T13:00:20Z) - Achieving Personalized Federated Learning with Sparse Local Models [75.76854544460981]
フェデレートラーニング(FL)は異種分散データに対して脆弱である。
この問題に対処するため、個人ごとに専用のローカルモデルを作成するためにパーソナライズされたFL(PFL)が提案された。
既存のPFLソリューションは、異なるモデルアーキテクチャに対する不満足な一般化を示すか、あるいは膨大な余分な計算とメモリを犠牲にするかのどちらかである。
我々は、パーソナライズされたスパースマスクを用いて、エッジ上のスパースローカルモデルをカスタマイズする新しいPFLスキームFedSpaを提案する。
論文 参考訳(メタデータ) (2022-01-27T08:43:11Z) - FedNLP: A Research Platform for Federated Learning in Natural Language
Processing [55.01246123092445]
NLPのフェデレーションラーニングのための研究プラットフォームであるFedNLPを紹介します。
FedNLPは、テキスト分類、シーケンスタグ付け、質問応答、Seq2seq生成、言語モデリングなど、NLPで一般的なタスクの定式化をサポートしている。
FedNLPによる予備実験では、分散型データセットと集中型データセットの学習には大きなパフォーマンスギャップが存在することが明らかになった。
論文 参考訳(メタデータ) (2021-04-18T11:04:49Z) - Towards Personalized Federated Learning [20.586573091790665]
PFL手法をデータベースおよびモデルベースアプローチに分割するユニークな分類法を提案する。
我々は、その重要なアイデアを強調し、新しいpflアーキテクチャ設計に向けた研究の将来の展望を期待する。
論文 参考訳(メタデータ) (2021-03-01T02:45:19Z) - PFL-MoE: Personalized Federated Learning Based on Mixture of Experts [1.8757823231879849]
フェデレーションラーニング(FL)は、データプライバシーを保護するために、トレーニングノード間のデータ共有を避けます。
PFL-MoEは一般的なアプローチであり、既存のPFLアルゴリズムを統合することでインスタンス化することができる。
本稿では,Fashion-MNISTデータセット上でLeNet-5およびVGG-16モデルをトレーニングし,PFL-MoEの有効性を示す。
論文 参考訳(メタデータ) (2020-12-31T12:51:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。