論文の概要: Peak-Controlled Logits Poisoning Attack in Federated Distillation
- arxiv url: http://arxiv.org/abs/2407.18039v1
- Date: Thu, 25 Jul 2024 13:36:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-26 13:58:54.094507
- Title: Peak-Controlled Logits Poisoning Attack in Federated Distillation
- Title(参考訳): フェデレート蒸留におけるピーク制御ロジット中毒
- Authors: Yuhan Tang, Aoxu Zhang, Zhiyuan Wu, Bo Gao, Tian Wen, Yuwei Wang, Sheng Sun,
- Abstract要約: 本報告では,FDの高度かつより盗みやすいロジス中毒攻撃法であるPCFDLAについて述べる。
PCFDLAは、ロジットのピーク値を慎重に制御することでFDLAの有効性を高め、非常に誤解を招くが目立たない修正を生み出す。
- 参考スコア(独自算出の注目度): 7.844189001319052
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Distillation (FD) offers an innovative approach to distributed machine learning, leveraging knowledge distillation for efficient and flexible cross-device knowledge transfer without necessitating the upload of extensive model parameters to a central server. While FD has gained popularity, its vulnerability to poisoning attacks remains underexplored. To address this gap, we previously introduced FDLA (Federated Distillation Logits Attack), a method that manipulates logits communication to mislead and degrade the performance of client models. However, the impact of FDLA on participants with different identities and the effects of malicious modifications at various stages of knowledge transfer remain unexplored. To this end, we present PCFDLA (Peak-Controlled Federated Distillation Logits Attack), an advanced and more stealthy logits poisoning attack method for FD. PCFDLA enhances the effectiveness of FDLA by carefully controlling the peak values of logits to create highly misleading yet inconspicuous modifications. Furthermore, we introduce a novel metric for better evaluating attack efficacy, demonstrating that PCFDLA maintains stealth while being significantly more disruptive to victim models compared to its predecessors. Experimental results across various datasets confirm the superior impact of PCFDLA on model accuracy, solidifying its potential threat in federated distillation systems.
- Abstract(参考訳): フェデレート蒸留(Federated Distillation, FD)は、分散機械学習に対する革新的なアプローチであり、中央サーバへの広範なモデルパラメータのアップロードを必要とせずに、知識蒸留を効率的かつ柔軟なデバイス間知識転送に活用する。
FDの人気は高まっているが、毒殺攻撃の脆弱性はいまだに解明されていない。
このギャップに対処するため、我々は以前FDLA(Federated Distillation Logits Attack)を導入しました。
しかし、異なるアイデンティティを持つ被験者に対するFDLAの影響や、知識伝達の様々な段階における悪意のある修正の影響は未解明のままである。
そこで本研究では,FDのより高度な,よりステルスなロジット中毒攻撃法であるPCFDLA(Peak-Controlled Federated Distillation Logits Attack)を提案する。
PCFDLAは、ロジットのピーク値を慎重に制御することでFDLAの有効性を高め、非常に誤解を招くが目立たない修正を生み出す。
さらに,PCFDLAは,攻撃効果を評価するための新しい指標を導入し,PCFDLAのステルスを維持しつつも,前者に比べて被害者モデルよりもはるかに破壊的であることを実証した。
各種データセットに対する実験結果から,PCFDLAのモデル精度への影響は良好であることが確認された。
関連論文リスト
- Distillation-Free One-Step Diffusion for Real-World Image Super-Resolution [81.81748032199813]
蒸留不要1ステップ拡散モデルを提案する。
具体的には、敵対的訓練に参加するためのノイズ認識識別器(NAD)を提案する。
我々は、エッジ対応disTS(EA-DISTS)による知覚損失を改善し、詳細な情報を生成するモデルの能力を向上させる。
論文 参考訳(メタデータ) (2024-10-05T16:41:36Z) - Celtibero: Robust Layered Aggregation for Federated Learning [0.0]
Celtiberoは, 対向操作に対する強靭性を高めるため, 層状アグリゲーションを統合した新しい防御機構である。
セルティベロは、標的外および標的標的の毒殺攻撃において、最小攻撃成功率(ASR)を維持しつつ、常に高い主タスク精度(MTA)を達成することを実証した。
論文 参考訳(メタデータ) (2024-08-26T12:54:00Z) - Watch the Watcher! Backdoor Attacks on Security-Enhancing Diffusion Models [65.30406788716104]
本研究では,セキュリティ強化拡散モデルの脆弱性について検討する。
これらのモデルは、シンプルで効果的なバックドア攻撃であるDIFF2に非常に感受性があることを実証する。
ケーススタディでは、DIFF2は、ベンチマークデータセットとモデル間で、パーフィケーション後の精度と認定精度の両方を著しく削減できることを示している。
論文 参考訳(メタデータ) (2024-06-14T02:39:43Z) - Precision Guided Approach to Mitigate Data Poisoning Attacks in Federated Learning [4.907460152017894]
フェデレートラーニング(Federated Learning, FL)は、参加者が共有機械学習モデルを集合的にトレーニングすることを可能にする、協調学習パラダイムである。
データ中毒攻撃に対する現在のFL防衛戦略は、正確性と堅牢性の間のトレードオフを含む。
本稿では、FLにおけるデータ中毒攻撃を効果的に対処するために、ゾーンベースの退避更新(ZBDU)機構を利用するFedZZを提案する。
論文 参考訳(メタデータ) (2024-04-05T14:37:49Z) - Thwarting Cybersecurity Attacks with Explainable Concept Drift [10.517955982799553]
サイバーセキュリティ攻撃は、自律システムの運用に重大な脅威をもたらす。
本稿では, ドリフト特徴を特定するための特徴ドリフト記述(FDE)モジュールを提案する。
FDEは85.77 %のドリフト特性を同定し、DL適応法でその有用性を示す。
論文 参考訳(メタデータ) (2024-03-18T20:20:00Z) - FedRDF: A Robust and Dynamic Aggregation Function against Poisoning
Attacks in Federated Learning [0.0]
Federated Learning(FL)は、集中型機械学習(ML)デプロイメントに関連する典型的なプライバシ問題に対する、有望なアプローチである。
そのよく知られた利点にもかかわらず、FLはビザンツの行動や毒殺攻撃のようなセキュリティ攻撃に弱い。
提案手法は各種モデル毒殺攻撃に対して試験され,最先端の凝集法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-02-15T16:42:04Z) - Logits Poisoning Attack in Federated Distillation [8.728629314547248]
FDLA(Federated Distillation, FD)を応用した中毒予防法について紹介する。
LPAがクライアントモデルの精度を効果的に損なうことを実証し、この点において確立されたベースラインアルゴリズムよりも優れていることを示す。
以上の結果から,FD設定における堅牢な防御機構の必要性が示唆された。
論文 参考訳(メタデータ) (2024-01-08T06:18:46Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Selective Knowledge Sharing for Privacy-Preserving Federated
Distillation without A Good Teacher [52.2926020848095]
フェデレーション学習は、ホワイトボックス攻撃に脆弱で、異種クライアントへの適応に苦慮している。
本稿では,選択的FD(Selective-FD)と呼ばれるFDのための選択的知識共有機構を提案する。
論文 参考訳(メタデータ) (2023-04-04T12:04:19Z) - Diffusion Denoising Process for Perceptron Bias in Out-of-distribution
Detection [67.49587673594276]
我々は、識別器モデルが入力の特定の特徴に対してより敏感であることを示唆する新しいパーセプトロンバイアスの仮定を導入し、過度な問題を引き起こした。
DMの拡散分解過程 (DDP) が非対称の新たな形態として機能し, 入力を高め, 過信問題を緩和するのに適していることを示す。
CIFAR10, CIFAR100, ImageNetによる実験により, 提案手法がSOTA手法より優れていることが示された。
論文 参考訳(メタデータ) (2022-11-21T08:45:08Z) - Improved Certified Defenses against Data Poisoning with (Deterministic)
Finite Aggregation [122.83280749890078]
本報告では, 一般中毒に対する予防的対策として, フィニット・アグリゲーション(Finite Aggregation)を提案する。
トレーニングセットを直接非結合部分集合に分割するDPAとは対照的に、我々の方法はまず、トレーニングセットをより小さな非結合部分集合に分割する。
我々は、決定論的および集約的認証された防御設計をブリッジして、我々の方法の代替的な見解を提供する。
論文 参考訳(メタデータ) (2022-02-05T20:08:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。