論文の概要: FL-GUARD: A Holistic Framework for Run-Time Detection and Recovery of
Negative Federated Learning
- arxiv url: http://arxiv.org/abs/2403.04146v1
- Date: Thu, 7 Mar 2024 01:52:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-08 15:35:30.813708
- Title: FL-GUARD: A Holistic Framework for Run-Time Detection and Recovery of
Negative Federated Learning
- Title(参考訳): fl-guard: 負のフェデレーション学習のランタイム検出とリカバリのための総合的フレームワーク
- Authors: Hong Lin, Lidan Shou, Ke Chen, Gang Chen, Sai Wu
- Abstract要約: フェデレートラーニング(FL)は、データプライバシを公開することなく、巨大なクライアント上に分散されたデータからモデルを学習するための有望なアプローチである。
NFL(Negative Federated Learning)と呼ばれる不健康な状態の中で、フェデレーションが理想的でない場合には、FLは適切に機能しない可能性がある。
本稿では,NFL をランタイムパラダイムで扱うための FL-GUARD について紹介する。
- 参考スコア(独自算出の注目度): 20.681802937080523
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) is a promising approach for learning a model from
data distributed on massive clients without exposing data privacy. It works
effectively in the ideal federation where clients share homogeneous data
distribution and learning behavior. However, FL may fail to function
appropriately when the federation is not ideal, amid an unhealthy state called
Negative Federated Learning (NFL), in which most clients gain no benefit from
participating in FL. Many studies have tried to address NFL. However, their
solutions either (1) predetermine to prevent NFL in the entire learning
life-cycle or (2) tackle NFL in the aftermath of numerous learning rounds.
Thus, they either (1) indiscriminately incur extra costs even if FL can perform
well without such costs or (2) waste numerous learning rounds. Additionally,
none of the previous work takes into account the clients who may be
unwilling/unable to follow the proposed NFL solutions when using those
solutions to upgrade an FL system in use. This paper introduces FL-GUARD, a
holistic framework that can be employed on any FL system for tackling NFL in a
run-time paradigm. That is, to dynamically detect NFL at the early stage (tens
of rounds) of learning and then to activate recovery measures when necessary.
Specifically, we devise a cost-effective NFL detection mechanism, which relies
on an estimation of performance gain on clients. Only when NFL is detected, we
activate the NFL recovery process, in which each client learns in parallel an
adapted model when training the global model. Extensive experiment results
confirm the effectiveness of FL-GUARD in detecting NFL and recovering from NFL
to a healthy learning state. We also show that FL-GUARD is compatible with
previous NFL solutions and robust against clients unwilling/unable to take any
recovery measures.
- Abstract(参考訳): フェデレーション学習(federated learning, fl)は、大規模クライアントに分散したデータからデータプライバシを公開することなくモデルを学習するための有望なアプローチである。
クライアントが均質なデータ分散と学習行動を共有する理想的なフェデレーションで効果的に機能する。
しかし、NFL(Negative Federated Learning)と呼ばれる不健康な状態の中で、フェデレーションが理想的でない場合、FLは適切に機能しない可能性がある。
多くの研究がnflに挑戦している。
しかし,1)学習ライフサイクル全体においてNFLを予防するか,あるいは(2)多くの学習ラウンドの後にNFLに取り組むかのどちらかである。
したがって、(1)FLがそのようなコストを伴わずに良好な性能を発揮できたり、(2)多数の学習ラウンドを無駄にしたりしても、不差別に余分なコストがかかる。
さらに、これらのソリューションを使用して使用中のflシステムをアップグレードする際に、nflのソリューションを望まない/できないかもしれないクライアントを考慮に入れていない。
本稿では,nfl を実行時パラダイムでタックリングするための fl システムに適用可能な包括的フレームワーク fl-guard を提案する。
すなわち、学習の初期段階(ラウンド数)でnflを動的に検出し、必要に応じて回復措置を発動させる。
具体的には、顧客によるパフォーマンス向上の推定に依存するコスト効率の高いnfl検出機構を考案する。
NFLが検出されたときのみ、各クライアントがグローバルモデルをトレーニングする際に、適応モデルと並列に学習するNFLリカバリプロセスを起動する。
FL-GUARDのNFL検出およびNFLから健全な学習状態への回復における有効性を確認した。
また、FL-GUARDは従来のNFLソリューションと互換性があり、リカバリ対策を取らないクライアントに対して堅牢であることを示す。
関連論文リスト
- FuseFL: One-Shot Federated Learning through the Lens of Causality with Progressive Model Fusion [48.90879664138855]
ワンショットフェデレートラーニング(OFL)は、訓練されたモデルを1回だけ集約することで、FLにおける通信コストを大幅に削減する。
しかし、高度なOFL法の性能は通常のFLよりもはるかに遅れている。
本稿では,FuseFL と呼ばれる,高い性能と低通信・ストレージコストを有する新しい学習手法を提案する。
論文 参考訳(メタデータ) (2024-10-27T09:07:10Z) - Hire When You Need to: Gradual Participant Recruitment for Auction-based
Federated Learning [16.83897148104]
フェデレートラーニング(GPS-AFL)のための段階的参加者選択方式を提案する。
GPS-AFLは、反復的な相互作用によってより多くの情報が明らかになるにつれて、必要なDOを複数の訓練ラウンドで徐々に選択する。
評価に基づくFLにおける選択バイアスの欠点を軽減しつつ、コスト削減と性能向上のバランスをとるように設計されている。
論文 参考訳(メタデータ) (2023-10-04T08:19:04Z) - Federated Learning of Shareable Bases for Personalization-Friendly Image
Classification [54.72892987840267]
FedBasisは、いくつかの共有可能なベースモデルの集合を学習し、リニアに組み合わせて、クライアント用のパーソナライズされたモデルを形成することができる。
具体的には、新しいクライアントの場合、モデルの重みではなく、小さな組み合わせ係数のみを学ぶ必要がある。
また、FedBasisの有効性と適用性を示すために、画像分類のためのより実用的なPFLテストベッドを提案する。
論文 参考訳(メタデータ) (2023-04-16T20:19:18Z) - Vertical Semi-Federated Learning for Efficient Online Advertising [50.18284051956359]
VFLの実践的な産業的応用を実現するために,Semi-VFL (Vertical Semi-Federated Learning) を提案する。
サンプル空間全体に適用可能な推論効率のよいシングルパーティ学生モデルを構築した。
新しい表現蒸留法は、重なり合うデータと非重なり合うデータの両方について、パーティ間の特徴相関を抽出するように設計されている。
論文 参考訳(メタデータ) (2022-09-30T17:59:27Z) - FAIR-BFL: Flexible and Incentive Redesign for Blockchain-based Federated
Learning [19.463891024499773]
Vanilla Federated Learning (FL)は、集中型のグローバルアグリゲーションメカニズムに依存し、すべてのクライアントが誠実であると仮定する。
これにより、FLが単一障害点と不適切なクライアントを緩和することが難しくなります。
我々は、新しいBFLフレームワークを設計し、評価し、FAIR-BFLと呼ばれる柔軟性とインセンティブを持つバニラBFLの課題を解決した。
論文 参考訳(メタデータ) (2022-06-26T15:20:45Z) - Achieving Personalized Federated Learning with Sparse Local Models [75.76854544460981]
フェデレートラーニング(FL)は異種分散データに対して脆弱である。
この問題に対処するため、個人ごとに専用のローカルモデルを作成するためにパーソナライズされたFL(PFL)が提案された。
既存のPFLソリューションは、異なるモデルアーキテクチャに対する不満足な一般化を示すか、あるいは膨大な余分な計算とメモリを犠牲にするかのどちらかである。
我々は、パーソナライズされたスパースマスクを用いて、エッジ上のスパースローカルモデルをカスタマイズする新しいPFLスキームFedSpaを提案する。
論文 参考訳(メタデータ) (2022-01-27T08:43:11Z) - Federated Robustness Propagation: Sharing Adversarial Robustness in
Federated Learning [98.05061014090913]
フェデレートラーニング(FL)は、生データを共有することなく、参加するユーザのセットから学習する、人気のある分散ラーニングスキーマとして登場した。
敵対的トレーニング(AT)は集中学習のための健全なソリューションを提供する。
既存のFL技術では,非IDユーザ間の対向的ロバスト性を効果的に広めることができないことを示す。
本稿では, バッチ正規化統計量を用いてロバスト性を伝達する, 単純かつ効果的な伝搬法を提案する。
論文 参考訳(メタデータ) (2021-06-18T15:52:33Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL) with
Lazy Clients [124.48732110742623]
フェデレートラーニング(FL)にブロックチェーンを統合する新しいフレームワークを提案する。
BLADE-FLは、プライバシー保護、改ざん抵抗、学習の効果的な協力の点で優れたパフォーマンスを持っている。
遅延クライアントは、他人のトレーニングされたモデルを盗聴し、不正行為を隠すために人工的なノイズを加える。
論文 参考訳(メタデータ) (2020-12-02T12:18:27Z) - A Systematic Literature Review on Federated Learning: From A Model
Quality Perspective [10.725466627592732]
フェデレートラーニング(FL)は、データをローカルに残してグローバルモデルを共同でトレーニングすることができる。
本稿では,FLモデルの品質向上へのアプローチを体系的に検討し,客観的に分析する。
論文 参考訳(メタデータ) (2020-12-01T05:48:36Z) - LINDT: Tackling Negative Federated Learning with Local Adaptation [18.33409148798824]
NFLをリアルタイムに処理するための新しいフレームワーク LINDT を提案する。
本稿では,NFLをサーバから検出するためのメトリクスを紹介する。
実験結果から,提案手法は局所データ上でのFLの性能を著しく向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-11-23T01:31:18Z) - BlockFLA: Accountable Federated Learning via Hybrid Blockchain
Architecture [11.908715869667445]
Federated Learning (FL) は、分散された分散化された機械学習プロトコルである。
FL中、攻撃者が訓練されたモデルにバックドアを注入できることが示されている。
我々は、スマートコントラクトを使用して攻撃者を自動的に検出し、処罰する、ハイブリッドブロックチェーンベースのFLフレームワークを開発した。
論文 参考訳(メタデータ) (2020-10-14T22:43:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。