論文の概要: Exploiting Layer-Specific Vulnerabilities to Backdoor Attack in Federated Learning
- arxiv url: http://arxiv.org/abs/2602.15161v1
- Date: Mon, 16 Feb 2026 19:59:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:17.894497
- Title: Exploiting Layer-Specific Vulnerabilities to Backdoor Attack in Federated Learning
- Title(参考訳): フェデレーション学習におけるバックドアアタックに対する層特異的脆弱性の爆発
- Authors: Mohammad Hadi Foroughi, Seyed Hamed Rastegar, Mohammad Sabokrou, Ahmad Khonsari,
- Abstract要約: フェデレートラーニング(FL)は、データのローカリティを維持しながら、エッジデバイス間での分散モデルトレーニングを可能にする。
本稿では、ニューラルネットワークの層固有の脆弱性を利用する新しいバックドア攻撃であるLayer Smoothing Attack(LSA)を提案する。
- 参考スコア(独自算出の注目度): 11.457223154116742
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) enables distributed model training across edge devices while preserving data locality. This decentralized approach has emerged as a promising solution for collaborative learning on sensitive user data, effectively addressing the longstanding privacy concerns inherent in centralized systems. However, the decentralized nature of FL exposes new security vulnerabilities, especially backdoor attacks that threaten model integrity. To investigate this critical concern, this paper presents the Layer Smoothing Attack (LSA), a novel backdoor attack that exploits layer-specific vulnerabilities in neural networks. First, a Layer Substitution Analysis methodology systematically identifies backdoor-critical (BC) layers that contribute most significantly to backdoor success. Subsequently, LSA strategically manipulates these BC layers to inject persistent backdoors while remaining undetected by state-of-the-art defense mechanisms. Extensive experiments across diverse model architectures and datasets demonstrate that LSA achieves a remarkably backdoor success rate of up to 97% while maintaining high model accuracy on the primary task, consistently bypassing modern FL defenses. These findings uncover fundamental vulnerabilities in current FL security frameworks, demonstrating that future defenses must incorporate layer-aware detection and mitigation strategies.
- Abstract(参考訳): フェデレートラーニング(FL)は、データのローカリティを維持しながら、エッジデバイス間での分散モデルトレーニングを可能にする。
この分散化アプローチは、センシティブなユーザーデータに対する協調学習のための有望なソリューションとして現れ、集中型システムに固有の長年にわたるプライバシー上の懸念に効果的に対処している。
しかし、FLの分散性は新たなセキュリティ脆弱性、特にモデル完全性を脅かすバックドア攻撃を露呈する。
そこで本研究では,ニューラルネットワークの層固有の脆弱性を利用した新たなバックドア攻撃であるLayer Smoothing Attack (LSA)を提案する。
まず、レイヤ置換分析手法は、バックドア成功に最も寄与するバックドアクリティカル(BC)層を体系的に同定する。
その後、LSAはこれらのBC層を戦略的に操作し、持続的なバックドアを注入する一方で、最先端の防御機構によって検出されないままである。
多様なモデルアーキテクチャやデータセットにわたる大規模な実験により、LAAは、主要なタスクにおいて高いモデル精度を維持しながら、最新のFLディフェンスを一貫して回避しながら、非常に高いバックドア成功率を最大97%達成していることが示された。
これらの発見は、現在のFLセキュリティフレームワークの根本的な脆弱性を明らかにし、将来の防御には層認識検出と緩和戦略を組み込まなければならないことを示した。
関連論文リスト
- DiffuGuard: How Intrinsic Safety is Lost and Found in Diffusion Large Language Models [50.21378052667732]
我々は、ステップ内およびステップ間ダイナミクスという2つの異なる次元にわたるジェイルブレイク攻撃に対して、dLLM脆弱性の詳細な分析を行う。
デュアルステージアプローチによる脆弱性に対処する,トレーニング不要な防御フレームワークであるDiffuGuardを提案する。
論文 参考訳(メタデータ) (2025-09-29T05:17:10Z) - FORCE: Transferable Visual Jailbreaking Attacks via Feature Over-Reliance CorrEction [82.6826848085638]
視覚的ジェイルブレイク攻撃は、洗練されたテキスト攻撃よりも簡単にオープンソースのMLLMを操作することができる。
これらの攻撃は、非常に限られたクロスモデル転送可能性を示し、クローズドソースMLLMの脆弱性を確実に特定することができない。
本稿では,FORCE(Feature Over-Reliance CorrEction)手法を提案する。
論文 参考訳(メタデータ) (2025-09-25T11:36:56Z) - MARS: A Malignity-Aware Backdoor Defense in Federated Learning [51.77354308287098]
最近提案されたSOTA攻撃(3DFed)は、ディフェンダーがバックドアモデルを受け入れたかどうかを判断するためにインジケータ機構を使用する。
本稿では,各ニューロンの有害な範囲を示すためにバックドアエネルギーを利用するMARS(Maignity-Aware backdooR defenSe)を提案する。
実験により、MARSはSOTAのバックドア攻撃に対して防御でき、既存の防御を著しく上回っていることが示された。
論文 参考訳(メタデータ) (2025-09-21T14:50:02Z) - Exploiting Edge Features for Transferable Adversarial Attacks in Distributed Machine Learning [54.26807397329468]
この研究は、分散ディープラーニングシステムにおいて、これまで見過ごされていた脆弱性を探究する。
中間的特徴をインターセプトする敵は、依然として深刻な脅威となる可能性がある。
本稿では,分散環境に特化して設計されたエクスプロイト戦略を提案する。
論文 参考訳(メタデータ) (2025-07-09T20:09:00Z) - FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - SDBA: A Stealthy and Long-Lasting Durable Backdoor Attack in Federated Learning [0.6562256987706128]
フェデレーション学習は、データのプライバシを保持しながら機械学習モデルをトレーニングするための、有望なアプローチである。
本稿では,フェデレート学習環境におけるNLPタスクのための新しいバックドア攻撃機構であるSDBAを紹介する。
論文 参考訳(メタデータ) (2024-09-23T08:30:57Z) - Celtibero: Robust Layered Aggregation for Federated Learning [0.0]
Celtiberoは, 対向操作に対する強靭性を高めるため, 層状アグリゲーションを統合した新しい防御機構である。
セルティベロは、標的外および標的標的の毒殺攻撃において、最小攻撃成功率(ASR)を維持しつつ、常に高い主タスク精度(MTA)を達成することを実証した。
論文 参考訳(メタデータ) (2024-08-26T12:54:00Z) - Backdoor Federated Learning by Poisoning Backdoor-Critical Layers [32.510730902353224]
フェデレートラーニング(FL)は、分散デバイス間の機密データに対する機械学習トレーニングを可能にするために広くデプロイされている。
本稿では,攻撃者の視点からバックドア層を同定し,検証する一般的なin-situアプローチを提案する。
特定されたBC層に基づいて、様々な防衛戦略の下で攻撃効果とステルスネスの基本的なバランスを適応的に求める新しいバックドアアタック手法を慎重に構築する。
論文 参考訳(メタデータ) (2023-08-08T05:46:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。