論文の概要: DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup
- arxiv url: http://arxiv.org/abs/2204.07742v1
- Date: Sat, 16 Apr 2022 08:08:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-19 14:35:24.899775
- Title: DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup
- Title(参考訳): DRFLM:局所的混合によるクライアント間雑音による分散ロバストなフェデレーション学習
- Authors: Bingzhe Wu, Zhipeng Liang, Yuxuan Han, Yatao Bian, Peilin Zhao,
Junzhou Huang
- Abstract要約: 連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
- 参考スコア(独自算出の注目度): 58.894901088797376
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, federated learning has emerged as a promising approach for training
a global model using data from multiple organizations without leaking their raw
data. Nevertheless, directly applying federated learning to real-world tasks
faces two challenges: (1) heterogeneity in the data among different
organizations; and (2) data noises inside individual organizations.
In this paper, we propose a general framework to solve the above two
challenges simultaneously. Specifically, we propose using distributionally
robust optimization to mitigate the negative effects caused by data
heterogeneity paradigm to sample clients based on a learnable distribution at
each iteration. Additionally, we observe that this optimization paradigm is
easily affected by data noises inside local clients, which has a significant
performance degradation in terms of global model prediction accuracy. To solve
this problem, we propose to incorporate mixup techniques into the local
training process of federated learning. We further provide comprehensive
theoretical analysis including robustness analysis, convergence analysis, and
generalization ability. Furthermore, we conduct empirical studies across
different drug discovery tasks, such as ADMET property prediction and
drug-target affinity prediction.
- Abstract(参考訳): 近年、連合学習は、生データを漏らさずに複数の組織からのデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場している。
それにもかかわらず、実世界のタスクに連邦学習を直接適用することは、(1)異なる組織間のデータの均一性、(2)個々の組織内のデータノイズの2つの課題に直面している。
本稿では,上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
具体的には,各イテレーションにおける学習可能な分布に基づくサンプルクライアントに対するデータ不均質性パラダイムによる負の影響を軽減するために,分散的にロバストな最適化手法を提案する。
さらに,この最適化のパラダイムは,グローバルモデル予測精度の点で性能が著しく低下するローカルクライアント内のデータノイズの影響を受けやすいことが観察された。
そこで本研究では,統合学習の局所的な学習プロセスにミックスアップ手法を取り入れることを提案する。
さらに、ロバスト性解析、収束解析、一般化能力を含む包括的理論解析を提供する。
さらに,ADMET特性予測やドラッグターゲット親和性予測など,さまざまな薬物発見タスクに対する実証的研究を行った。
関連論文リスト
- Reducing Spurious Correlation for Federated Domain Generalization [15.864230656989854]
オープンワールドのシナリオでは、グローバルモデルは特定のメディアによってキャプチャされた全く新しいドメインデータをうまく予測するのに苦労する可能性がある。
既存の手法はまだこの問題に対処するために、サンプルとラベルの間の強い統計的相関に頼っている。
ローカルレベルとグローバルレベルでの全体的な最適化フレームワークであるFedCDを紹介します。
論文 参考訳(メタデータ) (2024-07-27T05:06:31Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Distributed Personalized Empirical Risk Minimization [19.087524494290676]
本稿では、異種データからの学習を容易にするために、新たなパラダイムであるPersonalized Empirical Risk Minimization(PERM)を提案する。
本稿では,標準モデル平均化をモデルシャッフルに置き換えた分散アルゴリズムを提案し,すべてのデバイスに対してPERM目標を同時に最適化する。
論文 参考訳(メタデータ) (2023-10-26T20:07:33Z) - Tackling Computational Heterogeneity in FL: A Few Theoretical Insights [68.8204255655161]
我々は、計算異種データの形式化と処理を可能にする新しい集約フレームワークを導入し、分析する。
提案するアグリゲーションアルゴリズムは理論的および実験的予測から広範囲に解析される。
論文 参考訳(メタデータ) (2023-07-12T16:28:21Z) - FedGen: Generalizable Federated Learning for Sequential Data [8.784435748969806]
多くの実世界の分散環境では、バイアスとデータサンプリングの問題により、急激な相関が存在する。
我々はFedGenという汎用的なフェデレーション学習フレームワークを提案し、クライアントが素早い特徴と不変な特徴を識別および識別できるようにする。
FedGenは、より優れた一般化を実現し、現在のフェデレーション学習手法の精度を24%以上上回るモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-11-03T15:48:14Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - Quasi-Global Momentum: Accelerating Decentralized Deep Learning on
Heterogeneous Data [77.88594632644347]
ディープラーニングモデルの分散トレーニングは、ネットワーク上でデータプライバシとデバイス上での学習を可能にする重要な要素である。
現実的な学習シナリオでは、異なるクライアントのローカルデータセットに異質性が存在することが最適化の課題となる。
本稿では,この分散学習の難しさを軽減するために,運動量に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2021-02-09T11:27:14Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。