論文の概要: FAM: fast adaptive meta-learning
- arxiv url: http://arxiv.org/abs/2308.13970v1
- Date: Sat, 26 Aug 2023 22:54:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-29 17:59:26.536014
- Title: FAM: fast adaptive meta-learning
- Title(参考訳): FAM:高速適応型メタラーニング
- Authors: Indrajeet Kumar Sinha, Shekhar Verma and Krishna Pratap Singh
- Abstract要約: フェデレーション学習により、複数のクライアントが協力して、データを共有せずにモデルをトレーニングできる。
クライアントの特定の情報を使って適応できるグローバルモデルを学ぶ必要がある。
このスケルトンネットワークは各クライアントで成長し、ローカルデータから追加のクライアント固有のパラメータを学習することでパーソナライズされたモデルをトレーニングする。
パーソナライズされたクライアントモデルは、ローカルにトレーニングされたモデルよりも優れ、FAMメカニズムの有効性を実証した。
- 参考スコア(独自算出の注目度): 10.980548731600116
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we propose a fast adaptive federated meta-learning (FAM)
framework for collaboratively learning a single global model, which can then be
personalized locally on individual clients. Federated learning enables multiple
clients to collaborate to train a model without sharing data. Clients with
insufficient data or data diversity participate in federated learning to learn
a model with superior performance. Nonetheless, learning suffers when data
distributions diverge. There is a need to learn a global model that can be
adapted using client's specific information to create personalised models on
clients is required. MRI data suffers from this problem, wherein, one, due to
data acquisition challenges, local data at a site is sufficient for training an
accurate model and two, there is a restriction of data sharing due to privacy
concerns and three, there is a need for personalization of a learnt shared
global model on account of domain shift across client sites. The global model
is sparse and captures the common features in the MRI. This skeleton network is
grown on each client to train a personalised model by learning additional
client-specific parameters from local data. Experimental results show that the
personalization process at each client quickly converges using a limited number
of epochs. The personalized client models outperformed the locally trained
models, demonstrating the efficacy of the FAM mechanism. Additionally, the
sparse parameter set to be communicated during federated learning drastically
reduced communication overhead, which makes the scheme viable for networks with
limited resources.
- Abstract(参考訳): 本研究では,単一のグローバルモデルを協調的に学習し,個別のクライアントでローカルにパーソナライズできるファストアダプティブ・フェデレーション・メタラーニング(fam)フレームワークを提案する。
フェデレーション学習により、複数のクライアントが協力してデータを共有せずにモデルをトレーニングできる。
データやデータの多様性が不十分なクライアントは、フェデレーション学習に参加し、優れたパフォーマンスを持つモデルを学ぶ。
それでも、データ分布がばらばらになると学習は苦しむ。
クライアントにパーソナライズされたモデルを作成するために、クライアントの特定の情報を使用して適応できるグローバルモデルを学ぶ必要がある。
mriデータはこの問題に苦しんでおり、1つはデータ取得の課題のため、サイト内のローカルデータは正確なモデルをトレーニングするのに十分であり、2つはプライバシーの懸念によるデータ共有の制限があり、3つは、クライアントサイト間のドメインシフトを考慮して学習した共有グローバルモデルのパーソナライズの必要性である。
グローバルモデルはスパースであり、MRIの一般的な特徴を捉えている。
このスケルトンネットワークは各クライアントで成長し、ローカルデータから追加のクライアント固有のパラメータを学習することでパーソナライズされたモデルをトレーニングする。
実験の結果,各クライアントにおけるパーソナライズプロセスは,限られたエポック数を用いて迅速に収束することがわかった。
パーソナライズされたクライアントモデルは、ローカルにトレーニングされたモデルよりも優れ、FAMメカニズムの有効性を実証した。
さらに、フェデレーション学習中に通信されるスパースパラメータセットは、通信オーバーヘッドを劇的に削減し、限られたリソースのネットワークで実現可能とした。
関連論文リスト
- Multi-Level Additive Modeling for Structured Non-IID Federated Learning [54.53672323071204]
我々は、異種クライアント間のより良い知識共有のために、マルチレベル付加モデル(MAM)と呼ばれるマルチレベル構造で編成されたモデルを訓練する。
フェデレートMAM(FeMAM)では、各クライアントは各レベル毎に少なくとも1つのモデルに割り当てられ、そのパーソナライズされた予測は、各レベルに割り当てられたモデルの出力を合計する。
実験により、FeMAMは既存のクラスタリングFLおよびパーソナライズされたFLメソッドを様々な非IID設定で超越していることが示された。
論文 参考訳(メタデータ) (2024-05-26T07:54:53Z) - Learn What You Need in Personalized Federated Learning [53.83081622573734]
$textitLearn2pFed$は、アルゴリズムに基づくパーソナライズされたフェデレーション学習フレームワークである。
我々は、textitLearn2pFed$が、従来のパーソナライズされたフェデレーション学習方法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2024-01-16T12:45:15Z) - FedSampling: A Better Sampling Strategy for Federated Learning [81.85411484302952]
フェデレートラーニング(FL)は、プライバシを保存する方法で分散化されたデータからモデルを学習するための重要なテクニックである。
既存のFLメソッドは通常、各ラウンドでローカルモデル学習のために一様にクライアントをサンプリングする。
フェデレート学習のための新しいデータ一様サンプリング戦略(FedSampling)を提案する。
論文 参考訳(メタデータ) (2023-06-25T13:38:51Z) - Visual Prompt Based Personalized Federated Learning [83.04104655903846]
pFedPTと呼ばれる画像分類タスクのための新しいPFLフレームワークを提案し、クライアントのローカルデータ配信情報を暗黙的に表現するためにパーソナライズされた視覚的プロンプトを利用する。
CIFAR10とCIFAR100データセットの実験では、pFedPTは様々な設定でいくつかの最先端(SOTA)PFLアルゴリズムより優れていた。
論文 参考訳(メタデータ) (2023-03-15T15:02:15Z) - PerFED-GAN: Personalized Federated Learning via Generative Adversarial
Networks [46.17495529441229]
フェデレーション学習(Federated Learning)は、AI依存のIoTアプリケーションをデプロイするために使用できる分散機械学習手法である。
本稿では,協調学習とGANに基づく連合学習手法を提案する。
提案手法は,クライアントのモデルアーキテクチャとデータ分布が大きく異なる場合,既存手法の精度を平均42%向上させる。
論文 参考訳(メタデータ) (2022-02-18T12:08:46Z) - Personalized Federated Learning through Local Memorization [10.925242558525683]
フェデレーション学習により、クライアントはデータをローカルに保ちながら、統計的モデルを協調的に学習することができる。
最近のパーソナライズされた学習方法は、他のクライアントで利用可能な知識を活用しながら、各クライアントに対して別々のモデルを訓練する。
本稿では,この手法が最先端手法よりも精度と公平性を著しく向上することを示す。
論文 参考訳(メタデータ) (2021-11-17T19:40:07Z) - Federated Whole Prostate Segmentation in MRI with Personalized Neural
Architectures [11.563695244722613]
フェデレーション・ラーニング(FL)は、集中型データセットを必要とせずに機械学習モデルをトレーニングする手段である。
本研究では,FLと局所的ニューラルネットワーク探索に基づくAutoML技術を組み合わせた「スーパーネット」の学習を行う。
提案手法は3次元前立腺MRIの4つの異なるデータセットを用いて評価し,適応後の局所モデルの性能向上を示す。
論文 参考訳(メタデータ) (2021-07-16T20:35:29Z) - Personalized Federated Learning by Structured and Unstructured Pruning
under Data Heterogeneity [3.291862617649511]
クライアントレベルの目的からパーソナライズされたモデルを得るための新しいアプローチを提案する。
このパーソナライズを実現するために、各クライアントの小さなサブネットワークを見つける。
論文 参考訳(メタデータ) (2021-05-02T22:10:46Z) - Personalized Federated Learning using Hypernetworks [26.329820911200546]
パーソナライズされたFederated HyperNetworksのためのpFedHNを提案する。
このアプローチでは、中央のハイパーネットワークモデルをトレーニングして、各クライアントの1つのモデルであるモデルのセットを生成する。
pfedhnは,トレーニング中に観察した任意のクライアントと分布が異なる新しいクライアントに対して,より一般化できることを示す。
論文 参考訳(メタデータ) (2021-03-08T09:29:08Z) - Personalized Federated Learning with First Order Model Optimization [76.81546598985159]
そこで我々は,各クライアントが他のクライアントと連携して,クライアント固有の目的ごとのより強力なモデルを得る,フェデレーション学習の代替案を提案する。
基礎となるデータ分布やクライアントの類似性に関する知識を前提とせず、各クライアントが関心のある任意のターゲット分布を最適化できるようにします。
この手法は既存の代替品を上回り、ローカルデータ配信以外の転送のようなパーソナライズされたFLの新機能を可能にする。
論文 参考訳(メタデータ) (2020-12-15T19:30:29Z) - Federated Mutual Learning [65.46254760557073]
Federated Mutual Leaning (FML)は、クライアントが汎用モデルとパーソナライズされたモデルを独立してトレーニングすることを可能にする。
実験により、FMLは一般的なフェデレート学習環境よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2020-06-27T09:35:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。