論文の概要: TrojanDam: Detection-Free Backdoor Defense in Federated Learning through Proactive Model Robustification utilizing OOD Data
- arxiv url: http://arxiv.org/abs/2504.15674v1
- Date: Tue, 22 Apr 2025 07:56:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-30 21:41:25.598211
- Title: TrojanDam: Detection-Free Backdoor Defense in Federated Learning through Proactive Model Robustification utilizing OOD Data
- Title(参考訳): TrojanDam:OODデータを用いた積極的モデルロバスト化によるフェデレーション学習における無検出バックドアディフェンス
- Authors: Yanbo Dai, Songze Li, Zihan Gan, Xueluan Gong,
- Abstract要約: 分散化によって 敵は 慎重に設計された バックドアのアップデートを作れ グローバルなモデルを 誤って分類できる
既存の防御機構は、更新を受けた後、主にトレーニング後の検出に依存している。
本稿では,グローバルモデルにおける積極的ロバスト化に着目したバックドア防衛パラダイムを提案する。
- 参考スコア(独自算出の注目度): 9.078056680217465
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) systems allow decentralized data-owning clients to jointly train a global model through uploading their locally trained updates to a centralized server. The property of decentralization enables adversaries to craft carefully designed backdoor updates to make the global model misclassify only when encountering adversary-chosen triggers. Existing defense mechanisms mainly rely on post-training detection after receiving updates. These methods either fail to identify updates which are deliberately fabricated statistically close to benign ones, or show inconsistent performance in different FL training stages. The effect of unfiltered backdoor updates will accumulate in the global model, and eventually become functional. Given the difficulty of ruling out every backdoor update, we propose a backdoor defense paradigm, which focuses on proactive robustification on the global model against potential backdoor attacks. We first reveal that the successful launching of backdoor attacks in FL stems from the lack of conflict between malicious and benign updates on redundant neurons of ML models. We proceed to prove the feasibility of activating redundant neurons utilizing out-of-distribution (OOD) samples in centralized settings, and migrating to FL settings to propose a novel backdoor defense mechanism, TrojanDam. The proposed mechanism has the FL server continuously inject fresh OOD mappings into the global model to activate redundant neurons, canceling the effect of backdoor updates during aggregation. We conduct systematic and extensive experiments to illustrate the superior performance of TrojanDam, over several SOTA backdoor defense methods across a wide range of FL settings.
- Abstract(参考訳): フェデレートラーニング(FL)システムにより、分散データ所有クライアントは、ローカルにトレーニングされたアップデートを集中サーバにアップロードすることで、グローバルモデルを共同でトレーニングすることができる。
分散化の特質により、敵は慎重に設計されたバックドアのアップデートを作成でき、グローバルモデルが逆方向のトリガーに遭遇した場合のみ、誤分類される。
既存の防御機構は、更新を受けた後、主にトレーニング後の検出に依存している。
これらの方法は、統計的に統計的に良性に近い更新の特定に失敗するか、異なるFLトレーニング段階で不整合性を示すかのどちらかである。
フィルタされていないバックドア更新の効果は、グローバルモデルに蓄積され、最終的には機能する。
バックドア更新のすべてを除外することの難しさを踏まえ,バックドア攻撃に対するグローバルモデルに対する積極的なロバスト化に焦点を当てたバックドア防御パラダイムを提案する。
FLでのバックドア攻撃の成功は、MLモデルの冗長なニューロンに対する悪意と良心の更新の衝突の欠如に起因することを最初に明らかにした。
本研究は, オフ・オブ・ディストリビューション(OOD)サンプルを集中的に利用し, FL設定に移行し, 新たなバックドア防御機構であるTrojanDamを提案する。
提案機構では、FLサーバがグローバルモデルに新しいOODマッピングを連続的に注入して冗長ニューロンを活性化させ、アグリゲーション中のバックドア更新の効果をキャンセルする。
我々は、様々なFL設定のSOTAバックドア防御法において、TrojanDamの優れた性能を示すために、系統的および広範囲な実験を行った。
関連論文リスト
- REFINE: Inversion-Free Backdoor Defense via Model Reprogramming [60.554146386198376]
ディープニューラルネットワーク(DNN)に対するバックドア攻撃は、重大なセキュリティ脅威として浮上している。
モデル再プログラミングに基づく逆フリーバックドア防御手法であるREFINEを提案する。
論文 参考訳(メタデータ) (2025-02-22T07:29:12Z) - BadSFL: Backdoor Attack against Scaffold Federated Learning [16.104941796138128]
フェデレートラーニング(FL)は、分散クライアント上のディープラーニングモデルのトレーニングにより、データのプライバシを保護します。
BadSFLは、非IID環境での足場集約アルゴリズムを用いて、FLフレームワーク用に設計された新しいバックドアアタック手法である。
BadSFLは、グローバルモデルで60ラウンド以上有効であり、既存のベースライン攻撃の最大3倍の長さである。
論文 参考訳(メタデータ) (2024-11-25T07:46:57Z) - Securing Federated Learning Against Novel and Classic Backdoor Threats During Foundation Model Integration [8.191214701984162]
フェデレートラーニング(FL)は、プライバシを保護しながら、分散モデルトレーニングを可能にする。
近年、ファンデーションモデル(FM)をFLに統合することで性能が向上する一方で、新たなバックドア攻撃機構が導入されている。
本稿では,サーバ上でのモデルアグリゲーション中に隠れた特徴空間における異常なアクティベーションを制限し,新たなデータフリー防衛戦略を提案する。
論文 参考訳(メタデータ) (2024-10-23T05:54:41Z) - Efficient Backdoor Defense in Multimodal Contrastive Learning: A Token-Level Unlearning Method for Mitigating Threats [52.94388672185062]
本稿では,機械学習という概念を用いて,バックドアの脅威に対する効果的な防御機構を提案する。
これは、モデルがバックドアの脆弱性を迅速に学習するのを助けるために、小さな毒のサンプルを戦略的に作成することを必要とする。
バックドア・アンラーニング・プロセスでは,新しいトークン・ベースの非ラーニング・トレーニング・システムを提案する。
論文 参考訳(メタデータ) (2024-09-29T02:55:38Z) - BackdoorIndicator: Leveraging OOD Data for Proactive Backdoor Detection in Federated Learning [7.528642177161784]
FL(Federated Learning)システムでは、分散データオーナ(クライアント)が、ローカルにトレーニングされたモデルを中央サーバにアップロードして、グローバルモデルを共同でトレーニングすることが可能になる。
悪意のあるクライアントは、有害なローカルモデルをアップロードすることでバックドアをグローバルモデルに配置し、攻撃者が定義したトリガーに遭遇したときにターゲットクラスに誤分類を引き起こす可能性がある。
既存のバックドアディフェンスは、特に悪意のある更新が統計的に良質なものに近づいた場合に、異なるシステムと敵対的な設定下での一貫性のないパフォーマンスを示す。
我々は,サーバがグローバルモデルにインジケータタスクをインジェクタとしてインジェクタをインジェクタインジェクタにインジェクタインジェクタをインジェクタインジェクタにインジェクタインジェクタインジェクタにインジェクタインジェクタインジェクタインジェクタインジェクタをインジェクタインジェクタインジェクタにインジェクタインジェクタインジェクタインジェクタインジェクタインジェクタインジェクタイン
論文 参考訳(メタデータ) (2024-05-31T14:44:57Z) - Concealing Backdoor Model Updates in Federated Learning by Trigger-Optimized Data Poisoning [20.69655306650485]
Federated Learning(FL)は、参加者がプライベートデータを共有せずに、協力的にモデルをトレーニングできる分散型機械学習手法である。
プライバシーとスケーラビリティの利点にもかかわらず、FLはバックドア攻撃の影響を受けやすい。
本稿では,バックドアトリガの最適化によりバックドア目標を動的に構築する,FLのバックドア攻撃戦略であるDPOTを提案する。
論文 参考訳(メタデータ) (2024-05-10T02:44:25Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Backdoor Defense via Suppressing Model Shortcuts [91.30995749139012]
本稿では,モデル構造の角度からバックドア機構を探索する。
攻撃成功率 (ASR) は, キースキップ接続の出力を減少させると著しく低下することを示した。
論文 参考訳(メタデータ) (2022-11-02T15:39:19Z) - Technical Report: Assisting Backdoor Federated Learning with Whole
Population Knowledge Alignment [4.87359365320076]
単発バックドア攻撃は、FLモデル収束時にメインタスクとバックドアサブタスクの両方で高い精度を達成する。
後続のバックドアアタックの予備段階を含む2段階のバックドアアタックを提案する。
予備段階から見れば、後から注入されたバックドアは、通常のモデル更新によってバックドア効果が希薄になりにくくなるため、効果が向上する。
論文 参考訳(メタデータ) (2022-07-25T16:38:31Z) - Neurotoxin: Durable Backdoors in Federated Learning [73.82725064553827]
連合学習システムは バックドア攻撃の訓練中に 固有の脆弱性がある
我々は,既存のバックドア攻撃に対する単純な一直線修正であるニューロトキシンを提案する。
論文 参考訳(メタデータ) (2022-06-12T16:52:52Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。