論文の概要: MetaFed: Federated Learning among Federations with Cyclic Knowledge
Distillation for Personalized Healthcare
- arxiv url: http://arxiv.org/abs/2206.08516v3
- Date: Sun, 9 Jul 2023 12:46:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-11 19:22:33.989822
- Title: MetaFed: Federated Learning among Federations with Cyclic Knowledge
Distillation for Personalized Healthcare
- Title(参考訳): metafed: 循環型知識蒸留によるパーソナライズ医療における連合学習
- Authors: Yiqiang Chen, Wang Lu, Xin Qin, Jindong Wang, Xing Xie
- Abstract要約: フェデレートラーニングは、生のユーザデータにアクセスせずにモデルを構築することに注目を集めている。
本稿では,異なるフェデレーション間の信頼に値するFLを促進するためのMetaFedという新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 22.248585185394347
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning has attracted increasing attention to building models
without accessing the raw user data, especially in healthcare. In real
applications, different federations can seldom work together due to possible
reasons such as data heterogeneity and distrust/inexistence of the central
server. In this paper, we propose a novel framework called MetaFed to
facilitate trustworthy FL between different federations. MetaFed obtains a
personalized model for each federation without a central server via the
proposed Cyclic Knowledge Distillation. Specifically, MetaFed treats each
federation as a meta distribution and aggregates knowledge of each federation
in a cyclic manner. The training is split into two parts: common knowledge
accumulation and personalization. Comprehensive experiments on three benchmarks
demonstrate that MetaFed without a server achieves better accuracy compared to
state-of-the-art methods (e.g., 10%+ accuracy improvement compared to the
baseline for PAMAP2) with fewer communication costs.
- Abstract(参考訳): フェデレーション学習は、特にヘルスケアにおいて、生のユーザーデータにアクセスせずにモデルを構築することに注目が集まっている。
実際のアプリケーションでは、異なるフェデレーションは、データの不均一性や中央サーバの不信/不信など、起こりうる理由により、ほとんど連携できない。
本稿では,異なるフェデレーション間の信頼性の高いFLを実現するためのMetaFedというフレームワークを提案する。
MetaFedは、提案されたサイクリック知識蒸留を通じて、中央サーバーなしで各フェデレーションのパーソナライズされたモデルを取得する。
具体的には、MetaFedは各フェデレーションをメタ分布として扱い、各フェデレーションの知識を循環的に集約する。
トレーニングは、共通知識蓄積とパーソナライズという2つの部分に分けられる。
3つのベンチマークの総合的な実験により、MetaFedは最先端の手法(PAMAP2のベースラインに比べて10%以上精度が向上している)に比べて通信コストが低いことが示されている。
関連論文リスト
- Federated brain tumor segmentation: an extensive benchmark [2.515027627030043]
本稿では,この課題における3つのクラスすべてからのフェデレーション学習アルゴリズムの広範なベンチマークを提案する。
各カテゴリのいくつかの手法は、若干の性能改善をもたらし、フェデレーションの圧倒的なデータ分布に対する最終モデル(s)バイアスを制限する可能性があることを示す。
論文 参考訳(メタデータ) (2024-10-07T09:32:19Z) - Factor-Assisted Federated Learning for Personalized Optimization with
Heterogeneous Data [6.024145412139383]
フェデレートラーニング(Federated Learning)は、データプライバシ保護を目的とした、新興の分散機械学習フレームワークである。
異なるクライアントのデータには、共通の知識とパーソナライズされた知識の両方が含まれている。
我々は、FedSplitと呼ばれる異種データのための、新しい個人化されたフェデレーション学習フレームワークを開発した。
論文 参考訳(メタデータ) (2023-12-07T13:05:47Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - FedABC: Targeting Fair Competition in Personalized Federated Learning [76.9646903596757]
フェデレートラーニングは、クライアントのローカルプライベートデータにアクセスすることなく、モデルを協調的にトレーニングすることを目的としている。
我々はFedABCと呼ばれるバイナリ分類によるFederated Averagingと呼ばれる新規で汎用的なPFLフレームワークを提案する。
特に、各クライアントに1対1のトレーニング戦略を採用して、クラス間の不公平な競争を軽減する。
論文 参考訳(メタデータ) (2023-02-15T03:42:59Z) - Meta Knowledge Condensation for Federated Learning [65.20774786251683]
既存のフェデレートされた学習パラダイムは通常、より強力なモデルを達成するために、中央の解決器で分散モデルを広範囲に交換する。
これにより、特にデータ分散が不均一である場合、サーバと複数のクライアントの間で深刻な通信負荷が発生します。
既存のパラダイムとは違って,フェデレート学習におけるコミュニケーションコストを大幅に削減する新たな視点を導入する。
論文 参考訳(メタデータ) (2022-09-29T15:07:37Z) - Motley: Benchmarking Heterogeneity and Personalization in Federated
Learning [20.66924459164993]
Motleyは、パーソナライズされたフェデレーション学習のためのベンチマークである。
さまざまな問題領域のクロスデバイスとクロスサイロのフェデレーションデータセットからなる。
我々は、いくつかの代表的個人化フェデレーション学習手法を比較して、ベンチマークのベースラインを確立する。
論文 参考訳(メタデータ) (2022-06-18T18:18:49Z) - FedFormer: Contextual Federation with Attention in Reinforcement
Learning [21.05134144161283]
FedFormerは、Transformer Attentionを使用してコンテキスト的に埋め込みを集約する新しいフェデレーション戦略である。
我々はメタワールド環境における手法の評価を行い,FedAvgや非フェデレートなソフトアクター・クリストイック・シングルエージェント法よりも優れた手法が得られた。
論文 参考訳(メタデータ) (2022-05-27T01:19:22Z) - Practical One-Shot Federated Learning for Cross-Silo Setting [114.76232507580067]
ワンショット・フェデレーション・ラーニングは、クロスサイロ環境でフェデレーション・ラーニングを適用するための有望なアプローチである。
本稿では,FedKTという,実践的なワンショットフェデレーション学習アルゴリズムを提案する。
知識伝達技術を利用することで、FedKTは任意の分類モデルに適用でき、フレキシブルに差分プライバシー保証を達成できる。
論文 参考訳(メタデータ) (2020-10-02T14:09:10Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z) - Multi-Center Federated Learning [62.57229809407692]
本稿では,フェデレート学習のための新しい多中心集約機構を提案する。
非IIDユーザデータから複数のグローバルモデルを学び、同時にユーザとセンタ間の最適なマッチングを導出する。
ベンチマークデータセットによる実験結果から,本手法はいくつかの一般的なフェデレーション学習法より優れていることが示された。
論文 参考訳(メタデータ) (2020-05-03T09:14:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。