論文の概要: FedGraM: Defending Against Untargeted Attacks in Federated Learning via Embedding Gram Matrix
- arxiv url: http://arxiv.org/abs/2505.14024v1
- Date: Tue, 20 May 2025 07:26:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:52.856038
- Title: FedGraM: Defending Against Untargeted Attacks in Federated Learning via Embedding Gram Matrix
- Title(参考訳): FedGraM: グラムマトリックスの埋め込みによるフェデレーション学習における未ターゲティングアタックに対する防御
- Authors: Di Wu, Qian Li, Heng Yang, Yong Han,
- Abstract要約: Federated Learning (FL)は、地理的に分散したクライアントが、ローカルモデルのみを共有することで、機械学習モデルを協調的にトレーニングすることを可能にする。
FLは、基盤となるデータ分散上でのグローバルモデルのパフォーマンスを低下させることを目的とした、未ターゲットの攻撃に対して脆弱である。
FLにおける未標的攻撃に対する防御を目的とした,新たなロバストアグリゲーション手法であるFedGraMを提案する。
- 参考スコア(独自算出の注目度): 8.745475105649192
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) enables geographically distributed clients to collaboratively train machine learning models by sharing only their local models, ensuring data privacy. However, FL is vulnerable to untargeted attacks that aim to degrade the global model's performance on the underlying data distribution. Existing defense mechanisms attempt to improve FL's resilience against such attacks, but their effectiveness is limited in practical FL environments due to data heterogeneity. On the contrary, we aim to detect and remove the attacks to mitigate their impact. Generalization contribution plays a crucial role in distinguishing untargeted attacks. Our observations indicate that, with limited data, the divergence between embeddings representing different classes provides a better measure of generalization than direct accuracy. In light of this, we propose a novel robust aggregation method, FedGraM, designed to defend against untargeted attacks in FL. The server maintains an auxiliary dataset containing one sample per class to support aggregation. This dataset is fed to the local models to extract embeddings. Then, the server calculates the norm of the Gram Matrix of the embeddings for each local model. The norm serves as an indicator of each model's inter-class separation capability in the embedding space. FedGraM identifies and removes potentially malicious models by filtering out those with the largest norms, then averages the remaining local models to form the global model. We conduct extensive experiments to evaluate the performance of FedGraM. Our empirical results show that with limited data samples used to construct the auxiliary dataset, FedGraM achieves exceptional performance, outperforming state-of-the-art defense methods.
- Abstract(参考訳): Federated Learning (FL)は、地理的に分散されたクライアントが、ローカルモデルのみを共有し、データのプライバシを確保することによって、機械学習モデルを協調的にトレーニングすることを可能にする。
しかし、FLは、基盤となるデータ分散におけるグローバルモデルのパフォーマンスを低下させることを目的とした、未目標の攻撃に対して脆弱である。
既存の防御機構は、これらの攻撃に対するFLの弾力性を改善しようとするが、その効果はデータの不均一性により現実的なFL環境で制限される。
逆に、攻撃を検知して排除し、その影響を軽減することを目的としている。
一般化貢献は未標的の攻撃を区別する上で重要な役割を担っている。
本研究は,データに制限がある場合,異なるクラスを表現した埋め込み間のばらつきは,直接精度よりも一般化の指標として優れていることを示す。
そこで本研究では,FLにおける未標的攻撃に対する防御を目的とした,新しいロバストアグリゲーション手法であるFedGraMを提案する。
サーバは、アグリゲーションをサポートするために、クラス毎に1つのサンプルを含む補助データセットを保持する。
このデータセットは、埋め込みを抽出するためにローカルモデルに供給される。
そして、サーバは、各ローカルモデルに対する埋め込みのグラム行列のノルムを算出する。
このノルムは、埋め込み空間における各モデルのクラス間分離能力の指標として機能する。
FedGraMは、最大の規範を持つモデルをフィルタリングすることで、潜在的に悪意のあるモデルを特定し、削除し、グローバルモデルを形成するために残りのローカルモデルを平均化する。
我々はFedGraMの性能を評価するために広範囲な実験を行った。
実験結果から,FedGraMは補助的データセットを構築するのに使用されるデータサンプルが限られているため,例外的な性能を達成でき,最先端の防御手法よりも優れることがわかった。
関連論文リスト
- FedDistill: Global Model Distillation for Local Model De-Biasing in Non-IID Federated Learning [10.641875933652647]
フェデレートラーニング(FL)は、協調機械学習を可能にする新しいアプローチである。
FLは、クライアント間で均一に分散されていない(非ID)データのために、課題に直面します。
本稿では,グローバルモデルからローカルモデルへの知識伝達を促進するフレームワークであるFedDistillを紹介する。
論文 参考訳(メタデータ) (2024-04-14T10:23:30Z) - Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Data-Agnostic Model Poisoning against Federated Learning: A Graph
Autoencoder Approach [65.2993866461477]
本稿では,フェデレートラーニング(FL)に対するデータに依存しないモデル中毒攻撃を提案する。
この攻撃はFLトレーニングデータの知識を必要とせず、有効性と検出不能の両方を達成する。
実験により、FLの精度は提案した攻撃の下で徐々に低下し、既存の防御機構では検出できないことが示された。
論文 参考訳(メタデータ) (2023-11-30T12:19:10Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - FedCC: Robust Federated Learning against Model Poisoning Attacks [0.0]
フェデレートラーニング(Federated Learning)は、プライバシの問題に対処するために設計された分散フレームワークである。
新たなアタックサーフェスを導入しており、データは独立に、そしてIdentically Distributedである場合、特に困難である。
我々は,モデル中毒に対する簡易かつ効果的な新しい防御アルゴリズムであるFedCCを提案する。
論文 参考訳(メタデータ) (2022-12-05T01:52:32Z) - FL-Defender: Combating Targeted Attacks in Federated Learning [7.152674461313707]
フェデレートラーニング(FL)は、グローバル機械学習モデルを、参加する労働者のセット間で分散されたローカルデータから学習することを可能にする。
FLは、学習モデルの完全性に悪影響を及ぼす標的の毒殺攻撃に対して脆弱である。
FL標的攻撃に対抗する手段として,textitFL-Defenderを提案する。
論文 参考訳(メタデータ) (2022-07-02T16:04:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。