論文の概要: Salient Conditional Diffusion for Defending Against Backdoor Attacks
- arxiv url: http://arxiv.org/abs/2301.13862v1
- Date: Tue, 31 Jan 2023 18:56:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-01 15:16:50.043386
- Title: Salient Conditional Diffusion for Defending Against Backdoor Attacks
- Title(参考訳): バックドア攻撃に対する防御のためのサルエント条件拡散
- Authors: Brandon B. May, N. Joseph Tatro, Piyush Kumar, Nathan Shnidman
- Abstract要約: Sancdifiは、バックドア攻撃に対する最先端の防御である。
バックドア攻撃によるデータ中のトリガーを拡散させるのは非常に効果的である。
クリーンなデータに適用すると、正常な機能を確実に回復する。
- 参考スコア(独自算出の注目度): 2.117421588033177
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel algorithm, Salient Conditional Diffusion (Sancdifi), a
state-of-the-art defense against backdoor attacks. Sancdifi uses a denoising
diffusion probabilistic model (DDPM) to degrade an image with noise and then
recover said image using the learned reverse diffusion. Critically, we compute
saliency map-based masks to condition our diffusion, allowing for stronger
diffusion on the most salient pixels by the DDPM. As a result, Sancdifi is
highly effective at diffusing out triggers in data poisoned by backdoor
attacks. At the same time, it reliably recovers salient features when applied
to clean data. This performance is achieved without requiring access to the
model parameters of the Trojan network, meaning Sancdifi operates as a
black-box defense.
- Abstract(参考訳): 本研究では,バックドア攻撃に対する最先端の防御手法であるSalient Conditional Diffusion (Sancdifi)を提案する。
Sancdifi は denoising diffusion probabilistic model (DDPM) を用いて、ノイズのある画像を分解し、学習した逆拡散を用いてその画像を復元する。
重要な点として,我々は高感度マップベースのマスクを計算して拡散を条件付け,DDPMによる最も高精細なピクセルへの拡散を強くする。
その結果、Sancdifiはバックドア攻撃によるデータのトリガーを拡散させるのに非常に効果的である。
同時に、クリーンなデータに適用した際の健全な特徴を確実に回復する。
この性能は、トロイの木馬ネットワークのモデルパラメータにアクセスする必要がなく、つまり、サンディフィはブラックボックスディフェンスとして動作する。
関連論文リスト
- DiffPAD: Denoising Diffusion-based Adversarial Patch Decontamination [5.7254228484416325]
DiffPADは、拡散モデルのパワーを利用した新しいフレームワークである。
我々は,DiffPADがパッチ攻撃に対する最先端の敵対的堅牢性を達成し,パッチ残余を伴わない自然像の回復に優れることを示す。
論文 参考訳(メタデータ) (2024-10-31T15:09:36Z) - Pixel is a Barrier: Diffusion Models Are More Adversarially Robust Than We Think [14.583181596370386]
拡散モデルの逆例は、安全上の問題に対する解決策として広く使われている。
このことは、拡散モデルがほとんどの深層モデルのような敵攻撃に対して脆弱であると考えることを誤解させるかもしれない。
本稿では, 勾配をベースとしたホワイトボックス攻撃がLDM攻撃に有効であっても, PDM攻撃に失敗する,という新たな知見を示す。
論文 参考訳(メタデータ) (2024-04-20T08:28:43Z) - Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - DiffAttack: Evasion Attacks Against Diffusion-Based Adversarial
Purification [63.65630243675792]
拡散に基づく浄化防御は拡散モデルを利用して、敵の例の人工摂動を除去する。
近年の研究では、先進的な攻撃でさえ、そのような防御を効果的に破壊できないことが示されている。
拡散型浄化防衛を効果的かつ効率的に行うための統合フレームワークDiffAttackを提案する。
論文 参考訳(メタデータ) (2023-10-27T15:17:50Z) - DiffProtect: Generate Adversarial Examples with Diffusion Models for
Facial Privacy Protection [64.77548539959501]
DiffProtectは最先端の方法よりも自然に見える暗号化画像を生成する。
例えば、CelebA-HQとFFHQのデータセットで24.5%と25.1%の絶対的な改善が達成されている。
論文 参考訳(メタデータ) (2023-05-23T02:45:49Z) - On enhancing the robustness of Vision Transformers: Defensive Diffusion [0.0]
SOTAビジョンモデルであるViTは、大量の患者データをトレーニングに頼っている。
敵はViTの脆弱性を利用して機密情報を抽出し、患者のプライバシーを侵害する可能性がある。
この研究は、医療応用におけるViTの信頼性と信頼性を確保するために、これらの脆弱性に対処する。
論文 参考訳(メタデータ) (2023-05-14T00:17:33Z) - Denoising Diffusion Probabilistic Models as a Defense against
Adversarial Attacks [0.0]
本研究は,敵攻撃に対する浄化手法として,拡散確率モデル(DDPM)の性能を評価する。
リンパ節郭清におけるPatchCamelyonデータセットのアプローチについて検討し,その精度を88%まで向上させた。
論文 参考訳(メタデータ) (2023-01-17T13:27:53Z) - How to Backdoor Diffusion Models? [74.43215520371506]
本稿では,バックドア攻撃に対する拡散モデルの堅牢性に関する最初の研究について述べる。
我々は,バックドアインプラントのモデルトレーニング中に拡散過程を侵害する新たな攻撃フレームワークであるBadDiffusionを提案する。
本研究の結果は,拡散モデルの誤用や潜在的なリスクへの注意を呼び起こす。
論文 参考訳(メタデータ) (2022-12-11T03:44:38Z) - Backdoor Attack on Hash-based Image Retrieval via Clean-label Data
Poisoning [54.15013757920703]
混乱性摂動誘発性バックドアアタック(CIBA)を提案する。
トレーニングデータに、正しいラベルで少量の有毒画像を注入する。
提案したCIBAの有効性を検証するための広範な実験を行った。
論文 参考訳(メタデータ) (2021-09-18T07:56:59Z) - Error Diffusion Halftoning Against Adversarial Examples [85.11649974840758]
敵対的な例には、深いニューラルネットワークを誤った予測にだますことができる慎重に作られた摂動が含まれます。
誤り拡散のハーフトン化に基づく新しい画像変換防御を提案し、逆転の例に対して防御するための逆転訓練と組み合わせます。
論文 参考訳(メタデータ) (2021-01-23T07:55:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。