論文の概要: FedFA: Federated Feature Augmentation
- arxiv url: http://arxiv.org/abs/2301.12995v1
- Date: Mon, 30 Jan 2023 15:39:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 14:05:37.654999
- Title: FedFA: Federated Feature Augmentation
- Title(参考訳): FedFA:Federated Feature Augmentation
- Authors: Tianfei Zhou, Ender Konukoglu
- Abstract要約: フェデレーション学習は、複数のパーティが生データを交換することなく、ディープモデルを協調的にトレーニングすることを可能にする。
本研究の主な目的は,クライアントのサンプルの特徴変化に対処する堅牢なフェデレーション学習アルゴリズムを開発することである。
我々は,フェデレーション機能強化の観点から,フェデレーション学習に取り組むためのFedFAを提案する。
- 参考スコア(独自算出の注目度): 25.130087374092383
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning is a distributed paradigm that allows multiple parties to
collaboratively train deep models without exchanging the raw data. However, the
data distribution among clients is naturally non-i.i.d., which leads to severe
degradation of the learnt model. The primary goal of this paper is to develop a
robust federated learning algorithm to address feature shift in clients'
samples, which can be caused by various factors, e.g., acquisition differences
in medical imaging. To reach this goal, we propose FedFA to tackle federated
learning from a distinct perspective of federated feature augmentation. FedFA
is based on a major insight that each client's data distribution can be
characterized by statistics (i.e., mean and standard deviation) of latent
features; and it is likely to manipulate these local statistics globally, i.e.,
based on information in the entire federation, to let clients have a better
sense of the underlying distribution and therefore alleviate local data bias.
Based on this insight, we propose to augment each local feature statistic
probabilistically based on a normal distribution, whose mean is the original
statistic and variance quantifies the augmentation scope. Key to our approach
is the determination of a meaningful Gaussian variance, which is accomplished
by taking into account not only biased data of each individual client, but also
underlying feature statistics characterized by all participating clients. We
offer both theoretical and empirical justifications to verify the effectiveness
of FedFA. Our code is available at https://github.com/tfzhou/FedFA.
- Abstract(参考訳): フェデレーション学習(federated learning)は、複数のパーティが生データを交換することなく、深層モデルを協調的にトレーニングできる分散パラダイムである。
しかし、クライアント間のデータ分散は自然に非i.d.であり、学習モデルの大幅な劣化を引き起こす。
本研究の主な目的は、クライアントのサンプルの特徴変化に対処する堅牢なフェデレーション学習アルゴリズムを開発することであり、これは医療画像の取得の違いなど、様々な要因によって引き起こされる可能性がある。
この目標を達成するために,federated feature augmentationの観点からfederated learningに取り組むfederated learningを提案する。
FedFAは、各クライアントのデータ配信が潜在特徴の統計(平均偏差と標準偏差)によって特徴づけられるという大きな洞察に基づいており、これらのローカル統計を全世界で操作し、すなわち連合全体の情報に基づいて、クライアントが基礎となる分布をよりよく理解し、従ってローカルデータバイアスを緩和する可能性がある。
この知見に基づいて,各局所特徴量統計量は正規分布に基づいて確率的に増加し,その平均値が本来の統計量であり,分散が拡張範囲を定量化する。
このアプローチの鍵となるのは、個々のクライアントのバイアスデータだけでなく、すべてのクライアントが特徴とする特徴統計を考慮し、意味のあるガウス的分散を決定することである。
我々は,FedFAの有効性を検証するための理論的および実証的な正当性を提供する。
私たちのコードはhttps://github.com/tfzhou/fedfaで利用可能です。
関連論文リスト
- FOOGD: Federated Collaboration for Both Out-of-distribution Generalization and Detection [24.969694113366216]
Federated Learning(FL)は、クライアントモデルと連携してグローバルな知識を捉える、有望な機械学習パラダイムである。
実世界のシナリオにFLモデルをデプロイすることは、分布内データと予期せぬ分布外データの共存のため、依然として信頼性が低い。
本稿では,各クライアントの確率密度を推定し,信頼性の高いグローバル分布を求めるFOOGDを提案する。
論文 参考訳(メタデータ) (2024-10-15T08:39:31Z) - FedImpro: Measuring and Improving Client Update in Federated Learning [77.68805026788836]
フェデレートラーニング(FL)モデルは、不均一なデータによって引き起こされるクライアントのドリフトを経験することが多い。
我々は、クライアントのドリフトに対する別の視点を示し、改善されたローカルモデルを生成することにより、それを緩和することを目指している。
論文 参考訳(メタデータ) (2024-02-10T18:14:57Z) - Federated Learning for distribution skewed data using sample weights [3.6039117546761155]
本研究は,クライアント間のスキューデータ分散におけるフェデレート学習性能の向上に焦点を当てた。
主な考え方は、サンプル重量を用いてクライアントの分布をグローバルな分布に近づけることである。
提案手法は,フェデレーション学習の精度を向上するだけでなく,通信コストを大幅に削減する。
論文 参考訳(メタデータ) (2024-01-05T00:46:11Z) - A Simple Data Augmentation for Feature Distribution Skewed Federated
Learning [12.636154758643757]
フェデレートラーニング(FL)は、複数のクライアント間の協調学習を分散的に支援し、プライバシ保護を保証する。
本稿では,現実世界のアプリケーションに広く普及しているFLシナリオの特徴分布に着目した。
特徴分布スキュードFLの簡易かつ極めて効果的なデータ拡張法であるFedRDNを提案する。
論文 参考訳(メタデータ) (2023-06-14T05:46:52Z) - FedSkip: Combatting Statistical Heterogeneity with Federated Skip
Aggregation [95.85026305874824]
我々はFedSkipと呼ばれるデータ駆動型アプローチを導入し、フェデレーション平均化を定期的にスキップし、ローカルモデルをクロスデバイスに分散することで、クライアントの最適化を改善する。
我々は、FedSkipがはるかに高い精度、より良いアグリゲーション効率、競合する通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行う。
論文 参考訳(メタデータ) (2022-12-14T13:57:01Z) - Beyond ADMM: A Unified Client-variance-reduced Adaptive Federated
Learning Framework [82.36466358313025]
我々はFedVRAと呼ばれる原始二重FLアルゴリズムを提案し、このアルゴリズムはグローバルモデルの分散還元レベルとバイアスを適応的に制御することができる。
半教師付き画像分類タスクに基づく実験は,既存の手法よりもFedVRAの方が優れていることを示す。
論文 参考訳(メタデータ) (2022-12-03T03:27:51Z) - Personalized Federated Learning via Variational Bayesian Inference [6.671486716769351]
フェデレーション学習は、データ不足とクライアント間の統計的多様性のために、モデル過適合による大きな課題に直面します。
本稿では,pFedBayes というベイズ変分推論を用いた個人化学習手法を提案する。
実験により,提案手法はパーソナライズされたモデルにおいて,他の高度なパーソナライズされた手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2022-06-16T07:37:02Z) - FedDC: Federated Learning with Non-IID Data via Local Drift Decoupling
and Correction [48.85303253333453]
フェデレートラーニング(FL)は、複数のクライアントがプライベートデータを共有せずに、高性能なグローバルモデルを集合的にトレーニングすることを可能にする。
局所的ドリフトデカップリングと補正(FedDC)を用いた新しいフェデレーション学習アルゴリズムを提案する。
私たちのFedDCでは、ローカルモデルパラメータとグローバルモデルパラメータのギャップを追跡するために、各クライアントが補助的なローカルドリフト変数を使用するような、ローカルトレーニングフェーズにおける軽量な修正のみを導入しています。
実験結果と解析結果から,FedDCは様々な画像分類タスクにおいて,収差の迅速化と性能の向上を図っている。
論文 参考訳(メタデータ) (2022-03-22T14:06:26Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z) - FedBN: Federated Learning on Non-IID Features via Local Batch
Normalization [23.519212374186232]
フェデレーション学習(fl)の新たなパラダイムは、生データを集中的に集約することなく、ネットワークエッジにおける深層モデルの協調的なトレーニングを可能にすることを目指している。
モデルの平均化に先立って,局所的バッチ正規化を用いて特徴シフトを緩和する有効な手法を提案する。
FedBNと呼ばれるこの方式は、古典的なFedAvgと、非IDデータの最先端の両方を上回っている。
論文 参考訳(メタデータ) (2021-02-15T16:04:10Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。