論文の概要: PerFED-GAN: Personalized Federated Learning via Generative Adversarial
Networks
- arxiv url: http://arxiv.org/abs/2202.09155v1
- Date: Fri, 18 Feb 2022 12:08:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-21 14:23:21.437718
- Title: PerFED-GAN: Personalized Federated Learning via Generative Adversarial
Networks
- Title(参考訳): PerFED-GAN: 生成的敵対ネットワークによる個人化フェデレーション学習
- Authors: Xingjian Cao, Gang Sun, Hongfang Yu, Mohsen Guizani
- Abstract要約: フェデレーション学習(Federated Learning)は、AI依存のIoTアプリケーションをデプロイするために使用できる分散機械学習手法である。
本稿では,協調学習とGANに基づく連合学習手法を提案する。
提案手法は,クライアントのモデルアーキテクチャとデータ分布が大きく異なる場合,既存手法の精度を平均42%向上させる。
- 参考スコア(独自算出の注目度): 46.17495529441229
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning is gaining popularity as a distributed machine learning
method that can be used to deploy AI-dependent IoT applications while
protecting client data privacy and security. Due to the differences of clients,
a single global model may not perform well on all clients, so the personalized
federated learning method, which trains a personalized model for each client
that better suits its individual needs, becomes a research hotspot. Most
personalized federated learning research, however, focuses on data
heterogeneity while ignoring the need for model architecture heterogeneity.
Most existing federated learning methods uniformly set the model architecture
of all clients participating in federated learning, which is inconvenient for
each client's individual model and local data distribution requirements, and
also increases the risk of client model leakage. This paper proposes a
federated learning method based on co-training and generative adversarial
networks(GANs) that allows each client to design its own model to participate
in federated learning training independently without sharing any model
architecture or parameter information with other clients or a center. In our
experiments, the proposed method outperforms the existing methods in mean test
accuracy by 42% when the client's model architecture and data distribution vary
significantly.
- Abstract(参考訳): AIに依存したIoTアプリケーションをデプロイし、クライアントデータのプライバシとセキュリティを保護するために使用できる分散機械学習メソッドとして、フェデレーション学習が人気を集めている。
クライアントの違いにより、単一のグローバルモデルがすべてのクライアントでうまく機能しない場合があるため、個々のニーズに合ったパーソナライズされたモデルをトレーニングするパーソナライズされたフェデレーション学習手法が研究のホットスポットとなる。
しかし、最もパーソナライズされた連合学習研究は、モデルアーキテクチャの不均一性の必要性を無視しながら、データの多様性に焦点を当てている。
既存のフェデレートラーニング手法の多くは、フェデレーションラーニングに参加するすべてのクライアントのモデルアーキテクチャを均一に設定するが、これは各クライアントの個々のモデルとローカルデータ配信要求に不都合であり、クライアントモデルの漏洩リスクも増大させる。
本稿では,モデルアーキテクチャやパラメータ情報を他のクライアントやセンタと共有することなく,各クライアントが独立してフェデレート学習トレーニングに参加できるように,GAN(Co-training and Generative Adversarial Network)に基づくフェデレーション学習手法を提案する。
実験では,提案手法は,クライアントのモデルアーキテクチャやデータ分散が著しく異なる場合,既存の手法を平均テスト精度で42%上回っている。
関連論文リスト
- Multi-Level Additive Modeling for Structured Non-IID Federated Learning [54.53672323071204]
我々は、異種クライアント間のより良い知識共有のために、マルチレベル付加モデル(MAM)と呼ばれるマルチレベル構造で編成されたモデルを訓練する。
フェデレートMAM(FeMAM)では、各クライアントは各レベル毎に少なくとも1つのモデルに割り当てられ、そのパーソナライズされた予測は、各レベルに割り当てられたモデルの出力を合計する。
実験により、FeMAMは既存のクラスタリングFLおよびパーソナライズされたFLメソッドを様々な非IID設定で超越していることが示された。
論文 参考訳(メタデータ) (2024-05-26T07:54:53Z) - Learn What You Need in Personalized Federated Learning [53.83081622573734]
$textitLearn2pFed$は、アルゴリズムに基づくパーソナライズされたフェデレーション学習フレームワークである。
我々は、textitLearn2pFed$が、従来のパーソナライズされたフェデレーション学習方法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2024-01-16T12:45:15Z) - Cross-Silo Federated Learning Across Divergent Domains with Iterative Parameter Alignment [4.95475852994362]
フェデレートラーニング(Federated Learning)は、リモートクライアント間で機械学習モデルをトレーニングする手法である。
我々は、共通の目的のために最適化されたNモデルを学ぶために、典型的な連合学習環境を再構築する。
この技術は、最先端のアプローチと比較して、様々なデータパーティションにおける競合的な結果が得られることがわかった。
論文 参考訳(メタデータ) (2023-11-08T16:42:14Z) - FAM: fast adaptive federated meta-learning [10.980548731600116]
単一グローバルモデルの協調学習のための高速適応型メタラーニング(FAM)フレームワークを提案する。
スケルトンネットワークは各クライアントで成長し、ローカルデータから追加のクライアント固有のパラメータを学習することでパーソナライズされたモデルをトレーニングする。
パーソナライズされたクライアントモデルは、ローカルにトレーニングされたモデルよりも優れ、FAMメカニズムの有効性を実証した。
論文 参考訳(メタデータ) (2023-08-26T22:54:45Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - Personalized Federated Learning through Local Memorization [10.925242558525683]
フェデレーション学習により、クライアントはデータをローカルに保ちながら、統計的モデルを協調的に学習することができる。
最近のパーソナライズされた学習方法は、他のクライアントで利用可能な知識を活用しながら、各クライアントに対して別々のモデルを訓練する。
本稿では,この手法が最先端手法よりも精度と公平性を著しく向上することを示す。
論文 参考訳(メタデータ) (2021-11-17T19:40:07Z) - Subspace Learning for Personalized Federated Optimization [7.475183117508927]
本稿では,AIシステムにおけるパーソナライズされた学習の問題に対処する手法を提案する。
提案手法は、パーソナライズされたクライアント評価設定と見当たらないクライアント評価設定の両方において、一貫した利得が得られることを示す。
論文 参考訳(メタデータ) (2021-09-16T00:03:23Z) - Personalized Federated Learning by Structured and Unstructured Pruning
under Data Heterogeneity [3.291862617649511]
クライアントレベルの目的からパーソナライズされたモデルを得るための新しいアプローチを提案する。
このパーソナライズを実現するために、各クライアントの小さなサブネットワークを見つける。
論文 参考訳(メタデータ) (2021-05-02T22:10:46Z) - Personalized Federated Learning with First Order Model Optimization [76.81546598985159]
そこで我々は,各クライアントが他のクライアントと連携して,クライアント固有の目的ごとのより強力なモデルを得る,フェデレーション学習の代替案を提案する。
基礎となるデータ分布やクライアントの類似性に関する知識を前提とせず、各クライアントが関心のある任意のターゲット分布を最適化できるようにします。
この手法は既存の代替品を上回り、ローカルデータ配信以外の転送のようなパーソナライズされたFLの新機能を可能にする。
論文 参考訳(メタデータ) (2020-12-15T19:30:29Z) - Federated Mutual Learning [65.46254760557073]
Federated Mutual Leaning (FML)は、クライアントが汎用モデルとパーソナライズされたモデルを独立してトレーニングすることを可能にする。
実験により、FMLは一般的なフェデレート学習環境よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2020-06-27T09:35:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。