論文の概要: Structure-Aware Distributed Backdoor Attacks in Federated Learning
- arxiv url: http://arxiv.org/abs/2603.03865v1
- Date: Wed, 04 Mar 2026 09:19:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-05 21:29:15.246588
- Title: Structure-Aware Distributed Backdoor Attacks in Federated Learning
- Title(参考訳): フェデレートラーニングにおける構造認識型分散バックドアアタック
- Authors: Wang Jian, Shen Hong, Ke Wei, Liu Xue Hua,
- Abstract要約: 本稿では,モデルアーキテクチャとバックドア摂動の結合関係を解析する。
実験結果から,モデル構造は摂動の伝播と凝集に大きな影響を及ぼすことが示された。
- 参考スコア(独自算出の注目度): 2.04367431902848
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While federated learning protects data privacy, it also makes the model update process vulnerable to long-term stealthy perturbations. Existing studies on backdoor attacks in federated learning mainly focus on trigger design or poisoning strategies, typically assuming that identical perturbations behave similarly across different model architectures. This assumption overlooks the impact of model structure on perturbation effectiveness. From a structure-aware perspective, this paper analyzes the coupling relationship between model architectures and backdoor perturbations. We introduce two metrics, Structural Responsiveness Score (SRS) and Structural Compatibility Coefficient (SCC), to measure a model's sensitivity to perturbations and its preference for fractal perturbations. Based on these metrics, we develop a structure-aware fractal perturbation injection framework (TFI) to study the role of architectural properties in the backdoor injection process. Experimental results show that model architecture significantly influences the propagation and aggregation of perturbations. Networks with multi-path feature fusion can amplify and retain fractal perturbations even under low poisoning ratios, while models with low structural compatibility constrain their effectiveness. Further analysis reveals a strong correlation between SCC and attack success rate, suggesting that SCC can predict perturbation survivability. These findings highlight that backdoor behaviors in federated learning depend not only on perturbation design or poisoning intensity but also on the interaction between model architecture and aggregation mechanisms, offering new insights for structure-aware defense design.
- Abstract(参考訳): フェデレートされた学習はデータのプライバシを保護しますが、モデル更新プロセスは長期的なステルスな摂動に弱いものになります。
連邦学習におけるバックドア攻撃に関する既存の研究は、主に、異なるモデルアーキテクチャで同じ摂動が同じように振る舞うと仮定して、設計や毒殺戦略に焦点をあてている。
この仮定は、モデル構造が摂動効果に与える影響を見落としている。
構造認識の観点から、モデルアーキテクチャとバックドアの摂動の結合関係を解析する。
本研究では, モデルが摂動に敏感であること, フラクタル摂動に好適であることを評価するために, 構造応答性スコア (SRS) と構造適合性係数 (SCC) という2つの指標を導入する。
これらの指標に基づき, バックドアインジェクションプロセスにおける構造特性の解明を目的とした構造対応フラクタル摂動注入フレームワーク (TFI) を開発した。
実験結果から,モデル構造は摂動の伝播と凝集に大きな影響を及ぼすことが示された。
マルチパス機能融合を持つネットワークは、低毒性比でもフラクタル摂動を増幅し、維持することができる。
さらに分析したところ、SCCとアタック成功率の相関が強く、SCCが摂動生存率を予測することが示唆された。
これらの結果から,フェデレーション学習におけるバックドア行動は,摂動設計や中毒強度だけでなく,モデルアーキテクチャとアグリゲーション機構の相互作用にも依存し,構造認識型防衛設計の新たな洞察を提供することが明らかになった。
関連論文リスト
- On Evolution-Based Models for Experimentation Under Interference [7.262048441360133]
我々は、介入に応じて観察ラウンド間で結果がどのように変化するかを研究する進化に基づくアプローチについて研究する。
我々は、この手法のインスタンス化として、高密度ネットワークにおける因果メッセージパッシングを強調した。
このアプローチの限界について議論し、強い時間的傾向や内因性干渉が識別を損なう可能性があることを示す。
論文 参考訳(メタデータ) (2025-11-26T18:53:46Z) - Bridging Symmetry and Robustness: On the Role of Equivariance in Enhancing Adversarial Robustness [9.013874391203453]
敵対的な例では、知覚不能な入力摂動に対する感度を利用して、ディープニューラルネットワークの重大な脆弱性を明らかにしている。
本研究では,群-同変畳み込みを組込み,対向ロバスト性に対するアーキテクチャ的アプローチについて検討する。
これらの層は、モデル行動と入力空間の構造化変換を整合させる対称性の先行を符号化し、よりスムーズな決定境界を促進する。
論文 参考訳(メタデータ) (2025-10-17T19:26:58Z) - Exploiting Edge Features for Transferable Adversarial Attacks in Distributed Machine Learning [54.26807397329468]
この研究は、分散ディープラーニングシステムにおいて、これまで見過ごされていた脆弱性を探究する。
中間的特徴をインターセプトする敵は、依然として深刻な脅威となる可能性がある。
本稿では,分散環境に特化して設計されたエクスプロイト戦略を提案する。
論文 参考訳(メタデータ) (2025-07-09T20:09:00Z) - AlphaFold Database Debiasing for Robust Inverse Folding [58.792020809180336]
Debiasing Structure AutoEncoder (DeSAE)を導入し、故意に破損したバックボーンジオメトリからネイティブライクなコンフォーメーションを再構築することを学ぶ。
推測において、DeSAEをAFDB構造に適用すると、逆折り畳み性能を著しく向上する偏りのある構造が生成される。
論文 参考訳(メタデータ) (2025-06-10T02:25:31Z) - Model Hemorrhage and the Robustness Limits of Large Language Models [119.46442117681147]
大規模言語モデル(LLM)は、自然言語処理タスク全体で強力なパフォーマンスを示すが、デプロイメント用に修正された場合、大幅なパフォーマンス低下を経験する。
この現象をモデル出血(パラメータ変更とアーキテクチャ変更によるパフォーマンス低下)と定義する。
論文 参考訳(メタデータ) (2025-03-31T10:16:03Z) - Generalized Factor Neural Network Model for High-dimensional Regression [50.554377879576066]
複素・非線形・雑音に隠れた潜在低次元構造を持つ高次元データセットをモデル化する課題に取り組む。
我々のアプローチは、非パラメトリック回帰、因子モデル、高次元回帰のためのニューラルネットワークの概念のシームレスな統合を可能にする。
論文 参考訳(メタデータ) (2025-02-16T23:13:55Z) - TopoFR: A Closer Look at Topology Alignment on Face Recognition [58.45515807380505]
PTSAと呼ばれるトポロジカル構造アライメント戦略とSDEという硬質試料マイニング戦略を利用する新しいFRモデルであるTopoFRを提案する。
PTSAは永続ホモロジーを用いて入力空間と潜在空間の位相構造を整列し、構造情報を効果的に保存し、FRモデルの一般化性能を向上させる。
一般的な顔のベンチマーク実験の結果は、最先端の手法よりもTopoFRの方が優れていることを示している。
論文 参考訳(メタデータ) (2024-10-14T14:58:30Z) - Investigating and unmasking feature-level vulnerabilities of CNNs to adversarial perturbations [3.4530027457862]
本研究では,畳み込みニューラルネットワーク(CNN)に対する対向摂動の影響について検討する。
本稿では,CNNの脆弱性を逆方向の摂動に対して調査するために,逆方向干渉フレームワークを導入する。
論文 参考訳(メタデータ) (2024-05-31T08:14:44Z) - Similarity of Neural Architectures using Adversarial Attack Transferability [47.66096554602005]
ニューラルネットワーク間の定量的かつスケーラブルな類似度尺度を設計する。
我々は69の最先端画像ネット分類器を大規模に解析する。
我々の結果は、異なるコンポーネントを持つ多様なニューラルアーキテクチャの開発がなぜ必要かについての洞察を提供する。
論文 参考訳(メタデータ) (2022-10-20T16:56:47Z) - Understanding and Diagnosing Vulnerability under Adversarial Attacks [62.661498155101654]
ディープニューラルネットワーク(DNN)は敵の攻撃に弱いことが知られている。
本稿では,潜在変数の分類に使用される特徴を説明するために,新しい解釈可能性手法であるInterpretGANを提案する。
また、各層がもたらす脆弱性を定量化する最初の診断方法も設計する。
論文 参考訳(メタデータ) (2020-07-17T01:56:28Z) - A Hierarchical Deep Convolutional Neural Network and Gated Recurrent
Unit Framework for Structural Damage Detection [0.0]
本稿では,空間的・時間的関係をモデル化する新しい階層型CNNと Gated Recurrent Unit (GRU) フレームワークを提案する。
提案したHCGは,既存の構造損傷検出法よりも優れていた。
論文 参考訳(メタデータ) (2020-05-29T07:55:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。