論文の概要: Not All Edges are Equally Robust: Evaluating the Robustness of Ranking-Based Federated Learning
- arxiv url: http://arxiv.org/abs/2503.08976v1
- Date: Wed, 12 Mar 2025 00:38:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-13 15:39:27.875552
- Title: Not All Edges are Equally Robust: Evaluating the Robustness of Ranking-Based Federated Learning
- Title(参考訳): すべてのエッジが平等にロバストであるとは限らない - ランク付けに基づくフェデレーション学習のロバスト性を評価する
- Authors: Zirui Gong, Yanjun Zhang, Leo Yu Zhang, Zhaoxi Zhang, Yong Xiang, Shirui Pan,
- Abstract要約: Federated Ranking Learning (FRL) は最先端のFLフレームワークであり、通信効率と中毒攻撃に対するレジリエンスで際立っている。
Vulnerable Edge Manipulation (VEM) 攻撃という, FRLに対する新たな局所モデル中毒攻撃を導入する。
我々の攻撃は、全体的な53.23%の攻撃効果を達成し、既存の方法よりも3.7倍のインパクトを与える。
- 参考スコア(独自算出の注目度): 49.68790647579509
- License:
- Abstract: Federated Ranking Learning (FRL) is a state-of-the-art FL framework that stands out for its communication efficiency and resilience to poisoning attacks. It diverges from the traditional FL framework in two ways: 1) it leverages discrete rankings instead of gradient updates, significantly reducing communication costs and limiting the potential space for malicious updates, and 2) it uses majority voting on the server side to establish the global ranking, ensuring that individual updates have minimal influence since each client contributes only a single vote. These features enhance the system's scalability and position FRL as a promising paradigm for FL training. However, our analysis reveals that FRL is not inherently robust, as certain edges are particularly vulnerable to poisoning attacks. Through a theoretical investigation, we prove the existence of these vulnerable edges and establish a lower bound and an upper bound for identifying them in each layer. Based on this finding, we introduce a novel local model poisoning attack against FRL, namely the Vulnerable Edge Manipulation (VEM) attack. The VEM attack focuses on identifying and perturbing the most vulnerable edges in each layer and leveraging an optimization-based approach to maximize the attack's impact. Through extensive experiments on benchmark datasets, we demonstrate that our attack achieves an overall 53.23% attack impact and is 3.7x more impactful than existing methods. Our findings highlight significant vulnerabilities in ranking-based FL systems and underline the urgency for the development of new robust FL frameworks.
- Abstract(参考訳): Federated Ranking Learning (FRL) は最先端のFLフレームワークであり、通信効率と中毒攻撃に対するレジリエンスで際立っている。
従来のFLフレームワークとは2つの方法で分離する。
1)グラデーション更新の代わりに個別のランク付けを活用し、通信コストを大幅に削減し、悪意のある更新の潜在的なスペースを制限する。
2) サーバ側の多数決でグローバルなランキングを確立することで,各クライアントがひとつの投票にのみ貢献するため,個々の更新の影響を最小限に抑える。
これらの機能は、FLトレーニングのための有望なパラダイムとして、システムのスケーラビリティと位置FRLを高める。
しかし,本分析の結果,FRLは本質的には堅牢ではないことが明らかとなった。
理論的研究を通じて、これらの脆弱なエッジの存在を証明し、各層でそれらを特定するための下界と上界を確立する。
そこで本研究では,新しい局所モデル中毒攻撃,すなわちVulnerable Edge Manipulation (VEM) 攻撃を導入した。
VEM攻撃は、各レイヤで最も脆弱なエッジを特定し、摂動することに焦点を当て、攻撃の影響を最大化するために最適化ベースのアプローチを活用する。
ベンチマークデータセットに関する広範な実験を通じて、我々の攻撃が53.23%の攻撃効果を達成し、既存の方法よりも3.7倍のインパクトを持つことを示した。
本研究は、ランキングベースのFLシステムにおいて重大な脆弱性を指摘し、新しい堅牢なFLフレームワークの開発の緊急性を強調した。
関連論文リスト
- Formal Logic-guided Robust Federated Learning against Poisoning Attacks [6.997975378492098]
Federated Learning (FL)は、集中型機械学習(ML)に関連するプライバシー問題に対して、有望な解決策を提供する。
FLは、敵クライアントがトレーニングデータやモデル更新を操作して全体的なモデルパフォーマンスを低下させる、毒殺攻撃など、さまざまなセキュリティ上の脅威に対して脆弱である。
本稿では,時系列タスクにおけるフェデレート学習における中毒攻撃の軽減を目的とした防御機構を提案する。
論文 参考訳(メタデータ) (2024-11-05T16:23:19Z) - Celtibero: Robust Layered Aggregation for Federated Learning [0.0]
Celtiberoは, 対向操作に対する強靭性を高めるため, 層状アグリゲーションを統合した新しい防御機構である。
セルティベロは、標的外および標的標的の毒殺攻撃において、最小攻撃成功率(ASR)を維持しつつ、常に高い主タスク精度(MTA)を達成することを実証した。
論文 参考訳(メタデータ) (2024-08-26T12:54:00Z) - Poisoning with A Pill: Circumventing Detection in Federated Learning [33.915489514978084]
本稿では,FLにおける検出に対する既存のFL中毒攻撃の有効性とステルス性を高めるために,汎用的かつ攻撃に依存しない拡張手法を提案する。
具体的には、FLトレーニング中に、戦略的にピルを構築、生成、注入する3段階の方法論を用いており、それに従ってピル構築、ピル中毒およびピル注入と命名されている。
論文 参考訳(メタデータ) (2024-07-22T05:34:47Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Data-Agnostic Model Poisoning against Federated Learning: A Graph
Autoencoder Approach [65.2993866461477]
本稿では,フェデレートラーニング(FL)に対するデータに依存しないモデル中毒攻撃を提案する。
この攻撃はFLトレーニングデータの知識を必要とせず、有効性と検出不能の両方を達成する。
実験により、FLの精度は提案した攻撃の下で徐々に低下し、既存の防御機構では検出できないことが示された。
論文 参考訳(メタデータ) (2023-11-30T12:19:10Z) - Towards Understanding Adversarial Transferability in Federated Learning [14.417827137513369]
悪質なクライアントのグループは、そのアイデンティティを軽視し、良心的なクライアントとして振る舞うことによって、トレーニング中にモデルに影響を与えてきたが、その後、敵の役割に切り替えた。
この種の攻撃は微妙で検出が難しい。
提案攻撃が現在のFLシステムに対して高いセキュリティリスクを課すことを実証的に示す。
論文 参考訳(メタデータ) (2023-10-01T08:35:46Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - FL-WBC: Enhancing Robustness against Model Poisoning Attacks in
Federated Learning from a Client Perspective [35.10520095377653]
Federated Learning(FL)は,中央サーバとエッジデバイス間の反復的な通信を通じてグローバルモデルをトレーニングする,人気のある分散学習フレームワークである。
近年の研究では、FLはモデル中毒攻撃に弱いことが示されている。
我々は、モデル中毒攻撃を軽減できるクライアントベースの防御システム、White Blood Cell for Federated Learning (FL-WBC)を提案する。
論文 参考訳(メタデータ) (2021-10-26T17:13:35Z) - Meta Federated Learning [57.52103907134841]
フェデレートラーニング(FL)は、時間的敵攻撃の訓練に弱い。
本稿では,メタフェデレーション学習(Meta Federated Learning, Meta-FL)を提案する。
論文 参考訳(メタデータ) (2021-02-10T16:48:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。