論文の概要: Beyond Classification: Evaluating Diffusion Denoised Smoothing for Security-Utility Trade off
- arxiv url: http://arxiv.org/abs/2505.15594v1
- Date: Wed, 21 May 2025 14:49:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:59.707751
- Title: Beyond Classification: Evaluating Diffusion Denoised Smoothing for Security-Utility Trade off
- Title(参考訳): 分類を超えて: セキュリティとユーザビリティのトレードオフのために拡散を隠蔽するスムースの評価
- Authors: Yury Belousov, Brian Pulfer, Vitaliy Kinakh, Slava Voloshynovskiy,
- Abstract要約: Diffusion Denoized Smoothingは、モデルロバスト性を高めるための有望なテクニックとして登場している。
4つの異なる下流タスクを持つ3つのデータセットを3つの異なる逆攻撃アルゴリズムで解析する。
歪みのないクリーニング画像への高ノイズ拡散は、性能を最大57%低下させる。
我々は,拡散過程自体をターゲットとした新たな攻撃戦略を導入し,低雑音体制における防御を回避した。
- 参考スコア(独自算出の注目度): 4.497768222083102
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While foundation models demonstrate impressive performance across various tasks, they remain vulnerable to adversarial inputs. Current research explores various approaches to enhance model robustness, with Diffusion Denoised Smoothing emerging as a particularly promising technique. This method employs a pretrained diffusion model to preprocess inputs before model inference. Yet, its effectiveness remains largely unexplored beyond classification. We aim to address this gap by analyzing three datasets with four distinct downstream tasks under three different adversarial attack algorithms. Our findings reveal that while foundation models maintain resilience against conventional transformations, applying high-noise diffusion denoising to clean images without any distortions significantly degrades performance by as high as 57%. Low-noise diffusion settings preserve performance but fail to provide adequate protection across all attack types. Moreover, we introduce a novel attack strategy specifically targeting the diffusion process itself, capable of circumventing defenses in the low-noise regime. Our results suggest that the trade-off between adversarial robustness and performance remains a challenge to be addressed.
- Abstract(参考訳): 基礎モデルは様々なタスクにまたがって印象的なパフォーマンスを示すが、敵の入力には弱いままである。
現在の研究では、特に有望な手法として拡散分解平滑化(Diffusion Denoized Smoothing)が登場し、モデルロバスト性を高める様々なアプローチを探求している。
この方法は、事前訓練された拡散モデルを用いて、モデル推論の前に入力を前処理する。
しかし、その効果は分類を超えて明らかにされていない。
3つの異なる攻撃アルゴリズムの下で4つの異なる下流タスクを持つ3つのデータセットを解析することにより、このギャップに対処することを目指している。
その結果, 基礎モデルでは従来の変換に対する反発性は保たれるが, 歪みを伴わずに高ノイズ拡散デノナイジングをクリーン画像に適用すると, 性能は最大57%低下することがわかった。
低ノイズ拡散設定ではパフォーマンスは保たれるが、すべての攻撃タイプに対して適切な保護を提供することができない。
さらに,拡散プロセス自体をターゲットとした新たな攻撃戦略を導入し,低雑音体制における防御を回避できることを示す。
この結果から, 敵の強靭性と性能のトレードオフは依然として解決すべき課題であることが示唆された。
関連論文リスト
- Divide and Conquer: Heterogeneous Noise Integration for Diffusion-based Adversarial Purification [75.09791002021947]
既存の浄化法は,前向き拡散過程を通じて一定のノイズを発生させ,その後に逆の処理を行い,クリーンな例を回復させることによって,対向的摂動を妨害することを目的としている。
この方法は、前処理の均一な操作が、対向的摂動と闘いながら通常のピクセルを損なうため、根本的な欠陥がある。
ニューラルネットワークの解釈可能性に基づく異種浄化戦略を提案する。
本手法は,被写体モデルが注目する特定の画素に対して高強度雑音を決定的に印加する一方,残りの画素は低強度雑音のみを被写体とする。
論文 参考訳(メタデータ) (2025-03-03T11:00:25Z) - Watch the Watcher! Backdoor Attacks on Security-Enhancing Diffusion Models [65.30406788716104]
本研究では,セキュリティ強化拡散モデルの脆弱性について検討する。
これらのモデルは、シンプルで効果的なバックドア攻撃であるDIFF2に非常に感受性があることを実証する。
ケーススタディでは、DIFF2は、ベンチマークデータセットとモデル間で、パーフィケーション後の精度と認定精度の両方を著しく削減できることを示している。
論文 参考訳(メタデータ) (2024-06-14T02:39:43Z) - Digging into contrastive learning for robust depth estimation with diffusion models [55.62276027922499]
そこで我々はD4RDと呼ばれる新しい頑健な深度推定法を提案する。
複雑な環境での性能劣化を軽減するために、拡散モデルに適した独自のコントラスト学習モードを備えている。
実験では、D4RDは合成汚職データセットや現実世界の気象条件に関する最先端のソリューションを超越している。
論文 参考訳(メタデータ) (2024-04-15T14:29:47Z) - Threat Model-Agnostic Adversarial Defense using Diffusion Models [14.603209216642034]
ディープニューラルネットワーク(DNN)は、敵攻撃として知られる、知覚できない悪意のある摂動に対して非常に敏感である。
ディープニューラルネットワーク(DNN)は、敵攻撃として知られる、知覚できない悪意のある摂動に対して非常に敏感である。
論文 参考訳(メタデータ) (2022-07-17T06:50:48Z) - Diffusion Models for Adversarial Purification [69.1882221038846]
対人浄化(Adrial purification)とは、生成モデルを用いて敵の摂動を除去する防衛方法の分類である。
そこで我々は,拡散モデルを用いたDiffPureを提案する。
提案手法は,現在の対人訓練および対人浄化方法よりも優れ,最先端の成果を達成する。
論文 参考訳(メタデータ) (2022-05-16T06:03:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。