論文の概要: Adaptive Diffusion Denoised Smoothing : Certified Robustness via Randomized Smoothing with Differentially Private Guided Denoising Diffusion
- arxiv url: http://arxiv.org/abs/2507.08163v1
- Date: Thu, 10 Jul 2025 20:52:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-14 18:03:54.171997
- Title: Adaptive Diffusion Denoised Smoothing : Certified Robustness via Randomized Smoothing with Differentially Private Guided Denoising Diffusion
- Title(参考訳): Adaptive Diffusion Denoized Smoothing : Differentially Private Denoising Diffusionによるランダム化Smoothingによるロバスト性証明
- Authors: Frederick Shpilevskiy, Saiyue Lyu, Krishnamurthy Dj Dvijotham, Mathias Lécuyer, Pierre-André Noël,
- Abstract要約: 本稿では,視覚モデルの予測を敵対例に対して証明する手法である適応拡散復号化平滑化を提案する。
これらの適応メカニズムはGDPプライバシフィルタによって構成でき、ガイド付き復調プロセスのエンドツーエンドの堅牢性を分析することができる。
- 参考スコア(独自算出の注目度): 6.003113715347812
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose Adaptive Diffusion Denoised Smoothing, a method for certifying the predictions of a vision model against adversarial examples, while adapting to the input. Our key insight is to reinterpret a guided denoising diffusion model as a long sequence of adaptive Gaussian Differentially Private (GDP) mechanisms refining a pure noise sample into an image. We show that these adaptive mechanisms can be composed through a GDP privacy filter to analyze the end-to-end robustness of the guided denoising process, yielding a provable certification that extends the adaptive randomized smoothing analysis. We demonstrate that our design, under a specific guiding strategy, can improve both certified accuracy and standard accuracy on ImageNet for an $\ell_2$ threat model.
- Abstract(参考訳): 本稿では,適応拡散復号化平滑化(Adaptive Diffusion Denoized Smoothing)を提案する。
我々の重要な洞察は、純粋なノイズサンプルを画像に精製する適応型ガウス微分プライベート(GDP)機構の長いシーケンスとして、ガイド付き復調拡散モデルを再解釈することである。
これらの適応的メカニズムはGDPプライバシフィルタによって構成され、適応的ランダム化スムーシング分析を拡張した証明可能な証明が得られることを示す。
我々の設計は、特定の誘導戦略の下で、$$\ell_2$の脅威モデルに対して、ImageNetの認証精度と標準精度の両方を改善することができることを実証している。
関連論文リスト
- Noise Conditional Variational Score Distillation [60.38982038894823]
騒音条件変化スコア蒸留(NCVSD)は, 予混合拡散モデルから生成消音剤を蒸留する新しい方法である。
この知見を変分スコア蒸留フレームワークに組み込むことで、生成的デノイザのスケーラブルな学習を可能にする。
論文 参考訳(メタデータ) (2025-06-11T06:01:39Z) - Certified Adversarial Robustness via Partition-based Randomized Smoothing [9.054540533394926]
我々は、ニューラルネットワークの信頼度を高めるために、Pixel Partitioningベースのランダム化平滑化(PPRS)手法を提案する。
提案するPPRSアルゴリズムは,加法ガウス雑音下での画像の可視性を向上させる。
論文 参考訳(メタデータ) (2024-09-20T14:41:47Z) - Adaptive Randomized Smoothing: Certified Adversarial Robustness for Multi-Step Defences [8.40389580910855]
本稿では,適応ランダム化平滑化法(ARS)を提案する。
ARSは、複数のステップの適応的な構成を認証するために、$f$-Differential Privacyを使用してランダム化スムーシングの分析を拡張する。
我々は,有界な$L_infty$ノルムの逆例に対する予測を証明するために,深部画像分類上のARSをインスタンス化する。
論文 参考訳(メタデータ) (2024-06-14T22:11:02Z) - Diffusion Model Driven Test-Time Image Adaptation for Robust Skin Lesion Classification [24.08402880603475]
テストデータ上でのモデルの精度を高めるためのテスト時間画像適応手法を提案する。
拡散モデルを用いて、対象の試験画像をソース領域に投影して修正する。
私たちの手法は、さまざまな汚職、アーキテクチャ、データレシエーションにおいて、堅牢性をより堅牢にします。
論文 参考訳(メタデータ) (2024-05-18T13:28:51Z) - Forgery-aware Adaptive Transformer for Generalizable Synthetic Image
Detection [106.39544368711427]
本研究では,様々な生成手法から偽画像を検出することを目的とした,一般化可能な合成画像検出の課題について検討する。
本稿では,FatFormerという新しいフォージェリー適応トランスフォーマー手法を提案する。
提案手法は, 平均98%の精度でGANを観測し, 95%の精度で拡散モデルを解析した。
論文 参考訳(メタデータ) (2023-12-27T17:36:32Z) - Multi-scale Diffusion Denoised Smoothing [79.95360025953931]
ランダムな平滑化は、大規模モデルに敵対的ロバスト性を提供する、いくつかの具体的なアプローチの1つになっている。
本報告では, 分割平滑化におけるロバスト性と精度との現在のトレードオフに対処するスケーラブルな手法を提案する。
提案手法と拡散微細調整を併用したマルチスケール平滑化手法により,高騒音レベルで高い信頼性のロバスト性が得られることを示す。
論文 参考訳(メタデータ) (2023-10-25T17:11:21Z) - Towards Better Certified Segmentation via Diffusion Models [62.21617614504225]
セグメンテーションモデルは敵の摂動に弱いため、医療や自動運転といった重要な意思決定システムでの使用を妨げます。
近年,理論的保証を得るためにガウス雑音を入力に加えることにより,セグメント化予測のランダム化が提案されている。
本稿では,ランダムな平滑化と拡散モデルを組み合わせたセグメンテーション予測の問題に対処する。
論文 参考訳(メタデータ) (2023-06-16T16:30:39Z) - (Certified!!) Adversarial Robustness for Free! [116.6052628829344]
逆方向の摂動が0.5の2ノルム以内であることに制約された場合,ImageNetでは71%の精度が証明された。
これらの結果は,モデルパラメータの微調整や再学習を必要とせず,事前学習した拡散モデルと画像分類器のみを用いて得られる。
論文 参考訳(メタデータ) (2022-06-21T17:27:27Z) - Guided Diffusion Model for Adversarial Purification [103.4596751105955]
敵攻撃は、様々なアルゴリズムやフレームワークでディープニューラルネットワーク(DNN)を妨害する。
本稿では,GDMP ( Guided diffusion model for purification) と呼ばれる新しい精製法を提案する。
様々なデータセットにわたる包括的実験において,提案したGDMPは,敵対的攻撃によって引き起こされた摂動を浅い範囲に減少させることを示した。
論文 参考訳(メタデータ) (2022-05-30T10:11:15Z) - Uncertainty-aware Generalized Adaptive CycleGAN [44.34422859532988]
unpaired image-to-image translationは、教師なしの方法で画像ドメイン間のマッピングを学ぶことを指す。
既存の手法はしばしば、外れ値への堅牢性や予測不確実性を明示的にモデル化せずに決定論的マッピングを学習する。
Uncertainty-aware Generalized Adaptive Cycle Consistency (UGAC) という新しい確率論的手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T15:22:35Z) - Consistency Regularization for Certified Robustness of Smoothed
Classifiers [89.72878906950208]
最近のランダムな平滑化技術は、最悪の$ell$-robustnessを平均ケースのロバストネスに変換することができることを示している。
その結果,スムーズな分類器の精度と信頼性の高いロバスト性とのトレードオフは,ノイズに対する予測一貫性の規則化によって大きく制御できることが判明した。
論文 参考訳(メタデータ) (2020-06-07T06:57:43Z) - On Implicit Regularization in $\eta$-VAEs [32.674190005384204]
2つの観点から,変分分布の正規化が生成モデルの学習に及ぼす影響について検討した。
まず、最適な生成モデルの集合を制限することにより、学習モデルに変異族の選択が一意的に作用する役割を解析する。
次に,変分族が復号モデルの局所的幾何に与える影響について検討する。
論文 参考訳(メタデータ) (2020-01-31T19:57:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。