論文の概要: DistFL: Distribution-aware Federated Learning for Mobile Scenarios
- arxiv url: http://arxiv.org/abs/2110.11619v1
- Date: Fri, 22 Oct 2021 06:58:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-25 15:20:50.543066
- Title: DistFL: Distribution-aware Federated Learning for Mobile Scenarios
- Title(参考訳): DistFL: モバイルシナリオのための分散型フェデレーション学習
- Authors: Bingyan Liu, Yifeng Cai, Ziqi Zhang, Yuanchun Li, Leye Wang, Ding Li,
Yao Guo, Xiangqun Chen
- Abstract要約: フェデレートラーニング(FL)は、モバイルクライアントのための分散型およびプライバシ保護機械学習の効果的なソリューションとして登場した。
自動かつ正確なtextbfDistrib-aware textbfFederated textbfLution を実現するための新しいフレームワークである textbfDistFL を提案する。
- 参考スコア(独自算出の注目度): 14.638070213182655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) has emerged as an effective solution to decentralized
and privacy-preserving machine learning for mobile clients. While traditional
FL has demonstrated its superiority, it ignores the non-iid (independently
identically distributed) situation, which widely exists in mobile scenarios.
Failing to handle non-iid situations could cause problems such as performance
decreasing and possible attacks. Previous studies focus on the "symptoms"
directly, as they try to improve the accuracy or detect possible attacks by
adding extra steps to conventional FL models. However, previous techniques
overlook the root causes for the "symptoms": blindly aggregating models with
the non-iid distributions. In this paper, we try to fundamentally address the
issue by decomposing the overall non-iid situation into several iid clusters
and conducting aggregation in each cluster. Specifically, we propose
\textbf{DistFL}, a novel framework to achieve automated and accurate
\textbf{Dist}ribution-aware \textbf{F}ederated \textbf{L}earning in a
cost-efficient way. DistFL achieves clustering via extracting and comparing the
\textit{distribution knowledge} from the uploaded models. With this framework,
we are able to generate multiple personalized models with distinctive
distributions and assign them to the corresponding clients. Extensive
experiments on mobile scenarios with popular model architectures have
demonstrated the effectiveness of DistFL.
- Abstract(参考訳): federated learning(fl)は、モバイルクライアント向けの分散およびプライバシ保存機械学習の効果的なソリューションとして登場した。
従来のflは優位性を示してきたが、モバイルシナリオに広く存在する非iid(独立的に同じ分散)状況を無視している。
iidでない状況は、パフォーマンスの低下や攻撃の可能性といった問題を引き起こす可能性がある。
これまでの研究では、従来のFLモデルに追加のステップを加えることで、精度を改善したり、攻撃の可能性を検出するために、直接「症状」に焦点を当てていた。
しかし、以前の手法では「シンプトム」の根本原因を見落としていた:非iid分布を盲目的に集約するモデルである。
本稿では,非iid状態全体を複数のiidクラスタに分解し,各クラスタでアグリゲーションを行うことで,この問題に根本的な対処を試みる。
具体的には、コスト効率の高い方法で自動的かつ正確な \textbf{dist}ribution-aware \textbf{f}ederated \textbf{l}earning を実現するための新しいフレームワークである \textbf{distfl} を提案する。
DistFL はアップロードされたモデルから \textit{distribution knowledge} を抽出して比較することでクラスタリングを実現する。
このフレームワークにより、異なる分布を持つ複数のパーソナライズされたモデルを生成し、対応するクライアントに割り当てることができます。
一般的なモデルアーキテクチャを用いたモバイルシナリオに関する大規模な実験は、DistFLの有効性を実証している。
関連論文リスト
- FedHPL: Efficient Heterogeneous Federated Learning with Prompt Tuning and Logit Distillation [32.305134875959226]
フェデレートラーニング(FL)は、分散クライアントが中央サーバーでモデルを協調訓練できるプライバシー保護パラダイムである。
我々はパラメータ効率の高い$textbfFed$erated Learning framework for $textbfH$eterogeneous settingsを提案する。
我々のフレームワークは最先端のFLアプローチより優れており、オーバーヘッドもトレーニングラウンドも少なくなっている。
論文 参考訳(メタデータ) (2024-05-27T15:25:32Z) - Exploiting Label Skews in Federated Learning with Model Concatenation [39.38427550571378]
Federated Learning(FL)は、生データを交換することなく、さまざまなデータオーナでディープラーニングを実行するための、有望なソリューションとして登場した。
非IID型では、ラベルスキューは困難であり、画像分類やその他のタスクで一般的である。
我々は,これらの局所モデルをグローバルモデルの基礎として分解する,シンプルで効果的なアプローチであるFedConcatを提案する。
論文 参考訳(メタデータ) (2023-12-11T10:44:52Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Towards Understanding Quality Challenges of the Federated Learning: A
First Look from the Lens of Robustness [4.822471415125479]
Federated Learning(FL)は、すべての参加者のデータセット全体をトレーニングに活用しながら、ユーザのデータのプライバシを保護することを目的としている。
FLは依然として攻撃やビザンチン障害などの品質問題に悩まされる傾向にある。
本報告では,攻撃・故障発生におけるSOTA(State-of-the-art)の強靭なFL手法の有効性について検討する。
論文 参考訳(メタデータ) (2022-01-05T02:06:39Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Multi-Center Federated Learning [62.32725938999433]
フェデレートラーニング(FL)は、分散ラーニングにおけるデータのプライバシを保護する。
単にデータにアクセスせずに、ユーザーからローカルな勾配を収集するだけだ。
本稿では,新しいマルチセンターアグリゲーション機構を提案する。
論文 参考訳(メタデータ) (2021-08-19T12:20:31Z) - Federated Robustness Propagation: Sharing Adversarial Robustness in
Federated Learning [98.05061014090913]
フェデレートラーニング(FL)は、生データを共有することなく、参加するユーザのセットから学習する、人気のある分散ラーニングスキーマとして登場した。
敵対的トレーニング(AT)は集中学習のための健全なソリューションを提供する。
既存のFL技術では,非IDユーザ間の対向的ロバスト性を効果的に広めることができないことを示す。
本稿では, バッチ正規化統計量を用いてロバスト性を伝達する, 単純かつ効果的な伝搬法を提案する。
論文 参考訳(メタデータ) (2021-06-18T15:52:33Z) - A Bayesian Federated Learning Framework with Online Laplace
Approximation [144.7345013348257]
フェデレートラーニングは、複数のクライアントが協力してグローバルに共有されたモデルを学ぶことを可能にする。
クライアント側とサーバ側の両方の後方部を近似するために,オンラインラプラス近似を用いた新しいFLフレームワークを提案する。
提案手法の利点を実証し,いくつかのベンチマークで最新の結果を得た。
論文 参考訳(メタデータ) (2021-02-03T08:36:58Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z) - Federated learning with hierarchical clustering of local updates to
improve training on non-IID data [3.3517146652431378]
一つのジョイントモデルを学ぶことは、特定の種類の非IDデータが存在する場合に最適ではないことがよく示される。
階層的クラスタリングステップ(FL+HC)を導入することでFLに修正を加える。
FL+HCは,クラスタリングを伴わないFLに比べて,より少ない通信ラウンドでモデルトレーニングを収束させることができることを示す。
論文 参考訳(メタデータ) (2020-04-24T15:16:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。