論文の概要: Beyond Denial-of-Service: The Puppeteer's Attack for Fine-Grained Control in Ranking-Based Federated Learning
- arxiv url: http://arxiv.org/abs/2601.14687v1
- Date: Wed, 21 Jan 2026 06:03:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 21:27:50.2521
- Title: Beyond Denial-of-Service: The Puppeteer's Attack for Fine-Grained Control in Ranking-Based Federated Learning
- Title(参考訳): サービス拒否を超えて: ランキングベースフェデレーション学習における微粒化制御に対するPuppeteerの攻撃
- Authors: Zhihao Chen, Zirui Gong, Jianting Ning, Yanjun Zhang, Leo Yu Zhang,
- Abstract要約: 我々は、ランキングベースのFLフレームワークに合わせた、最初のきめ細かい制御攻撃であるエッジコントロールアタック(ECA)を紹介する。
ECAは平均誤差がわずか0.224%のきめ細かな精度制御を達成し、ベースラインを最大17倍の精度で上回っている。
以上の結果から, 先進的な毒殺攻撃に対する防御強化の必要性が示唆された。
- 参考スコア(独自算出の注目度): 37.22418291316679
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Rank Learning (FRL) is a promising Federated Learning (FL) paradigm designed to be resilient against model poisoning attacks due to its discrete, ranking-based update mechanism. Unlike traditional FL methods that rely on model updates, FRL leverages discrete rankings as a communication parameter between clients and the server. This approach significantly reduces communication costs and limits an adversary's ability to scale or optimize malicious updates in the continuous space, thereby enhancing its robustness. This makes FRL particularly appealing for applications where system security and data privacy are crucial, such as web-based auction and bidding platforms. While FRL substantially reduces the attack surface, we demonstrate that it remains vulnerable to a new class of local model poisoning attack, i.e., fine-grained control attacks. We introduce the Edge Control Attack (ECA), the first fine-grained control attack tailored to ranking-based FL frameworks. Unlike conventional denial-of-service (DoS) attacks that cause conspicuous disruptions, ECA enables an adversary to precisely degrade a competitor's accuracy to any target level while maintaining a normal-looking convergence trajectory, thereby avoiding detection. ECA operates in two stages: (i) identifying and manipulating Ascending and Descending Edges to align the global model with the target model, and (ii) widening the selection boundary gap to stabilize the global model at the target accuracy. Extensive experiments across seven benchmark datasets and nine Byzantine-robust aggregation rules (AGRs) show that ECA achieves fine-grained accuracy control with an average error of only 0.224%, outperforming the baseline by up to 17x. Our findings highlight the need for stronger defenses against advanced poisoning attacks. Our code is available at: https://github.com/Chenzh0205/ECA
- Abstract(参考訳): フェデレーテッド・ランク・ラーニング(FRL)は、フェデレーテッド・ラーニング(FL)パラダイムである。
モデル更新に依存する従来のFLメソッドとは異なり、FRLはクライアントとサーバ間の通信パラメータとして個別のランキングを利用する。
このアプローチは通信コストを大幅に削減し、連続空間における悪意ある更新をスケールまたは最適化する敵の能力を制限し、堅牢性を高める。
これによってFRLは、Webベースのオークションや入札プラットフォームなど、システムのセキュリティとデータのプライバシが重要であるアプリケーションに特にアピールする。
FRLは攻撃面を大幅に減少させるが、新たな局所モデル中毒攻撃、すなわちきめ細かい制御攻撃に対して脆弱であることを示す。
我々は、ランキングベースのFLフレームワークに合わせた、最初のきめ細かい制御攻撃であるエッジコントロールアタック(ECA)を紹介する。
目立った破壊を引き起こす従来のDoS攻撃とは異なり、ECAは敵の精度を正常なコンバージェンス軌道を維持しながら目標レベルまで正確に下げることを可能にし、検出を回避する。
ECAは以下の2段階で動作する。
一 グローバルモデルと対象モデルとの整合を図るための上行及び下行エッジの識別及び操作
(2)選択境界ギャップを広げ、目標精度で大域モデルを安定化させる。
7つのベンチマークデータセットと9つのByzantine-Robustアグリゲーションルール(AGR)にわたる大規模な実験により、ECAは平均誤差0.224%できめ細かな精度制御を達成し、ベースラインを最大17倍に上回った。
以上の結果から, 先進的な毒殺攻撃に対する防御強化の必要性が示唆された。
私たちのコードは、https://github.com/Chenzh0205/ECAで利用可能です。
関連論文リスト
- FAROS: Robust Federated Learning with Adaptive Scaling against Backdoor Attacks [9.466036066320946]
バックドア攻撃は連邦学習(FL)に重大な脅威をもたらす
適応微分スケーリング(ADS)とロバストコアセットコンピューティング(RCC)を組み合わせた拡張FLフレームワークであるFAROSを提案する。
RCCは、最も信頼性の高いクライアントからなるコアセットのセントロイドを計算することで、単一ポイント障害のリスクを効果的に軽減する。
論文 参考訳(メタデータ) (2026-01-05T06:55:35Z) - FLAegis: A Two-Layer Defense Framework for Federated Learning Against Poisoning Attacks [2.6599014990168843]
フェデレートラーニング(FL)は、機械学習(ML)モデルを分散的にトレーニングするための強力なテクニックとなっている。
ビザンティンの顧客として知られる第三者は、偽モデルのアップデートを提出することでトレーニングプロセスに悪影響を及ぼす可能性がある。
本研究では、ビザンティンのクライアントを特定し、FLシステムの堅牢性を改善するために設計された2段階の防御フレームワークであるFLAegisを紹介する。
論文 参考訳(メタデータ) (2025-08-26T07:09:15Z) - Not All Edges are Equally Robust: Evaluating the Robustness of Ranking-Based Federated Learning [49.68790647579509]
Federated Ranking Learning (FRL) は最先端のFLフレームワークであり、通信効率と中毒攻撃に対するレジリエンスで際立っている。
Vulnerable Edge Manipulation (VEM) 攻撃という, FRLに対する新たな局所モデル中毒攻撃を導入する。
我々の攻撃は、全体的な53.23%の攻撃効果を達成し、既存の方法よりも3.7倍のインパクトを与える。
論文 参考訳(メタデータ) (2025-03-12T00:38:14Z) - G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering [116.4277292854053]
Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:15:04Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。