論文の概要: Rethinking the Defense Against Free-rider Attack From the Perspective of
Model Weight Evolving Frequency
- arxiv url: http://arxiv.org/abs/2206.05406v1
- Date: Sat, 11 Jun 2022 03:11:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-14 14:20:13.068149
- Title: Rethinking the Defense Against Free-rider Attack From the Perspective of
Model Weight Evolving Frequency
- Title(参考訳): モデル重量発展周波数からみたフリーライダー攻撃に対する防御の再考
- Authors: Jinyin Chen, Mingjun Li, Tao Liu, Haibin Zheng, Yao Cheng and
Changting Lin
- Abstract要約: Federated Learning(FL)は、複数のクライアントがデータを交換することなく、共同モデルを共同でトレーニングする分散機械学習アプローチである。
FLはデータプライバシ保護において前例のない成功を収めたが、フリーライダー攻撃に対する脆弱性が注目されている。
本稿では,WEF-Defenseと呼ばれる重み付き周波数モデルに基づく新しい防御手法を提案する。
- 参考スコア(独自算出の注目度): 8.240778131695352
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) is a distributed machine learning approach where
multiple clients collaboratively train a joint model without exchanging their
data. Despite FL's unprecedented success in data privacy-preserving, its
vulnerability to free-rider attacks has attracted increasing attention.
Existing defenses may be ineffective against highly camouflaged or high
percentages of free riders. To address these challenges, we reconsider the
defense from a novel perspective, i.e., model weight evolving
frequency.Empirically, we gain a novel insight that during the FL's training,
the model weight evolving frequency of free-riders and that of benign clients
are significantly different. Inspired by this insight, we propose a novel
defense method based on the model Weight Evolving Frequency, referred to as
WEF-Defense.Specifically, we first collect the weight evolving frequency
(defined as WEF-Matrix) during local training. For each client, it uploads the
local model's WEF-Matrix to the server together with its model weight for each
iteration. The server then separates free-riders from benign clients based on
the difference in the WEF-Matrix. Finally, the server uses a personalized
approach to provide different global models for corresponding clients.
Comprehensive experiments conducted on five datasets and five models
demonstrate that WEF-Defense achieves better defense effectiveness than the
state-of-the-art baselines.
- Abstract(参考訳): Federated Learning(FL)は、複数のクライアントがデータを交換せずに共同モデルをトレーニングする分散機械学習アプローチである。
FLはデータプライバシ保護において前例のない成功を収めたが、フリーライダー攻撃に対する脆弱性が注目されている。
既存の防御は、高いカモフラージュまたは高いフリーライダーに対して効果がない可能性がある。
これらの課題に対処するため,我々は,モデル重み発生頻度という新しい視点から防衛を再考する。例えば,flのトレーニング中,フリーライダーのモデル重み発生頻度と良性クライアントの頻度が著しく異なるという新たな知見が得られた。
そこで本研究では,WEF-Defenseと呼ばれる重み付き周波数モデルに基づく新しい防御手法を提案する。
各クライアントは、ローカルモデルのWEF-Matrixをサーバにアップロードし、各イテレーションのモデルの重み付けを行う。
サーバは、WEF-Matrixの違いに基づいて、フリーライダーと良性クライアントを分離する。
最後に、サーバはパーソナライズされたアプローチを使用して、対応するクライアントに対して異なるグローバルモデルを提供する。
5つのデータセットと5つのモデルで実施された総合的な実験は、WEF-Defenseが最先端のベースラインよりも優れた防御効果を達成することを示した。
関連論文リスト
- Securing Federated Learning Against Novel and Classic Backdoor Threats During Foundation Model Integration [8.191214701984162]
フェデレートラーニング(FL)は、プライバシを保護しながら、分散モデルトレーニングを可能にする。
近年、ファンデーションモデル(FM)をFLに統合することで性能が向上する一方で、新たなバックドア攻撃機構が導入されている。
本稿では,サーバ上でのモデルアグリゲーション中に隠れた特徴空間における異常なアクティベーションを制限し,新たなデータフリー防衛戦略を提案する。
論文 参考訳(メタデータ) (2024-10-23T05:54:41Z) - FLGuard: Byzantine-Robust Federated Learning via Ensemble of Contrastive
Models [2.7539214125526534]
フェデレートラーニング(FL)は、多くのクライアントとグローバルモデルのトレーニングで活躍する。
近年の研究では、世界モデルの精度に壊滅的な損失をもたらす中毒攻撃が提案されている。
本稿では、悪意のあるクライアントを検出し、悪意のあるローカル更新を破棄する新しいバイザンチン・ロバストFL法FLGuardを提案する。
論文 参考訳(メタデータ) (2024-03-05T10:36:27Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - FL-Defender: Combating Targeted Attacks in Federated Learning [7.152674461313707]
フェデレートラーニング(FL)は、グローバル機械学習モデルを、参加する労働者のセット間で分散されたローカルデータから学習することを可能にする。
FLは、学習モデルの完全性に悪影響を及ぼす標的の毒殺攻撃に対して脆弱である。
FL標的攻撃に対抗する手段として,textitFL-Defenderを提案する。
論文 参考訳(メタデータ) (2022-07-02T16:04:46Z) - Robust Quantity-Aware Aggregation for Federated Learning [72.59915691824624]
悪意のあるクライアントは、モデル更新を害し、モデルアグリゲーションにおけるモデル更新の影響を増幅するために大量の要求を行う。
FLの既存の防御メソッドは、悪意のあるモデル更新を処理する一方で、すべての量の良性を扱うか、単にすべてのクライアントの量を無視/停止するだけである。
本稿では,フェデレーション学習のためのロバストな量認識アグリゲーションアルゴリズムであるFedRAを提案し,局所的なデータ量を認識してアグリゲーションを行う。
論文 参考訳(メタデータ) (2022-05-22T15:13:23Z) - FL-WBC: Enhancing Robustness against Model Poisoning Attacks in
Federated Learning from a Client Perspective [35.10520095377653]
Federated Learning(FL)は,中央サーバとエッジデバイス間の反復的な通信を通じてグローバルモデルをトレーニングする,人気のある分散学習フレームワークである。
近年の研究では、FLはモデル中毒攻撃に弱いことが示されている。
我々は、モデル中毒攻撃を軽減できるクライアントベースの防御システム、White Blood Cell for Federated Learning (FL-WBC)を提案する。
論文 参考訳(メタデータ) (2021-10-26T17:13:35Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。