論文の概要: Provably Robust Adversarial Examples
- arxiv url: http://arxiv.org/abs/2007.12133v3
- Date: Thu, 17 Mar 2022 19:36:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 12:05:10.671831
- Title: Provably Robust Adversarial Examples
- Title(参考訳): おそらくロバストな反対例
- Authors: Dimitar I. Dimitrov, Gagandeep Singh, Timon Gehr, Martin Vechev
- Abstract要約: 我々は、ディープニューラルネットワークに対する証明可能な堅牢な敵例の概念を導入する。
接続された入力領域は、現実世界の摂動に対して堅牢であることが保証される標準的な逆例から構築される。
本稿では,これらの領域をスケーラブルに生成するためのPARADEという新しい手法を提案する。
- 参考スコア(独自算出の注目度): 5.9410299928699475
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce the concept of provably robust adversarial examples for deep
neural networks - connected input regions constructed from standard adversarial
examples which are guaranteed to be robust to a set of real-world perturbations
(such as changes in pixel intensity and geometric transformations). We present
a novel method called PARADE for generating these regions in a scalable manner
which works by iteratively refining the region initially obtained via sampling
until a refined region is certified to be adversarial with existing
state-of-the-art verifiers. At each step, a novel optimization procedure is
applied to maximize the region's volume under the constraint that the convex
relaxation of the network behavior with respect to the region implies a chosen
bound on the certification objective. Our experimental evaluation shows the
effectiveness of PARADE: it successfully finds large provably robust regions
including ones containing $\approx 10^{573}$ adversarial examples for pixel
intensity and $\approx 10^{599}$ for geometric perturbations. The provability
enables our robust examples to be significantly more effective against
state-of-the-art defenses based on randomized smoothing than the individual
attacks used to construct the regions.
- Abstract(参考訳): 本稿では,実世界の摂動集合(ピクセル強度の変化や幾何学的変換など)にロバストであることが保証された,標準的な逆行例から構築された接続入力領域である深層ニューラルネットワークの強固な逆行例を提案する。
本稿では,これらの領域をスケーラブルに生成する方法として,改良された領域が既存の検証器と相反する認証を受けるまで,まずサンプリングにより得られた領域を反復的に精錬する手法を提案する。
各ステップにおいて、領域に対するネットワーク行動の凸緩和は、認証対象に選択された境界を示すという制約の下で、領域の体積を最大化する新しい最適化手順を適用する。
実験により, PARADEの有効性が確認できた。例えば, $\approx 10^{573}$ 画素強度の逆例, $\approx 10^{599}$ 幾何学的摂動の逆例を含む。
有効性により、ロバストな例は、地域の構築に使用する個々の攻撃よりも、ランダムな平滑化に基づく最先端の防御に対して著しく効果的になる。
関連論文リスト
- Verification of Geometric Robustness of Neural Networks via Piecewise Linear Approximation and Lipschitz Optimisation [57.10353686244835]
我々は、回転、スケーリング、せん断、翻訳を含む入力画像の幾何学的変換に対するニューラルネットワークの検証の問題に対処する。
提案手法は, 分枝・分枝リプシッツと組み合わせたサンプリングおよび線形近似を用いて, 画素値に対する楽音線形制約を求める。
提案手法では,既存の手法よりも最大32%の検証ケースが解決されている。
論文 参考訳(メタデータ) (2024-08-23T15:02:09Z) - Certified $\ell_2$ Attribution Robustness via Uniformly Smoothed Attributions [20.487079380753876]
本研究では,ある空間から一様にサンプリングされた雑音によってバニラ属性を増大させる一様平滑化手法を提案する。
攻撃領域内の全ての摂動に対して、摂動試料の均一なスムーズな属性と非摂動試料とのコサイン類似性を低くすることが保証された。
論文 参考訳(メタデータ) (2024-05-10T09:56:02Z) - Towards Generalizable Deepfake Detection by Primary Region
Regularization [52.41801719896089]
本稿では,新しい正規化の観点から一般化能力を高める。
本手法は, 一次領域マップの静的な位置決めと, 一次領域マスクの動的利用の2段階からなる。
5つのバックボーンを持つDFDC,DF-1.0,Celeb-DFの3種類のディープフェイクデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-07-24T05:43:34Z) - Boosting Adversarial Transferability by Achieving Flat Local Maxima [23.91315978193527]
近年、様々な敵の攻撃が出現し、異なる視点から敵の移動可能性を高めている。
本研究では, 平坦な局所領域における逆例が良好な伝達性を持つ傾向があることを仮定し, 実証的に検証する。
目的関数の勾配更新を簡略化する近似最適化法を提案する。
論文 参考訳(メタデータ) (2023-06-08T14:21:02Z) - Beyond Empirical Risk Minimization: Local Structure Preserving
Regularization for Improving Adversarial Robustness [28.853413482357634]
局所構造保存(LSP)正則化は、学習された埋め込み空間における入力空間の局所構造を保存することを目的としている。
本研究では,学習した埋め込み空間における入力空間の局所構造を保存することを目的とした,新しい局所構造保存(LSP)正規化を提案する。
論文 参考訳(メタデータ) (2023-03-29T17:18:58Z) - Latent Feature Relation Consistency for Adversarial Robustness [80.24334635105829]
深層ニューラルネットワークは、人間の知覚できない敵のノイズを自然の例に付加する敵の例を予測するときに、誤分類が起こる。
textbfLatent textbfFeature textbfRelation textbfConsistency (textbfLFRC)を提案する。
LFRCは、潜在空間における逆例の関係を、自然例と整合性に制約する。
論文 参考訳(メタデータ) (2023-03-29T13:50:01Z) - A Practical Upper Bound for the Worst-Case Attribution Deviations [21.341303776931532]
モデル属性は、複雑なモデルに対する解釈可能性において、ディープニューラルネットワーク(DNN)の重要な構成要素である。
近年の研究では、属性が異なる類似画像を生成する属性攻撃に弱いため、属性手法の安全性に注意が向けられている。
既存の研究はこれらの攻撃に対するDNNの堅牢性を実証的に改善している。
この研究において、制約付き最適化問題を初めて定式化し、ある領域内の雑音によってサンプルが摂動した後の属性の最大の相違を測る上限を導出する。
論文 参考訳(メタデータ) (2023-03-01T09:07:27Z) - Region-Based Semantic Factorization in GANs [67.90498535507106]
本稿では,任意の画像領域についてGAN(Generative Adversarial Networks)が学習した潜在意味を分解するアルゴリズムを提案する。
適切に定義された一般化されたレイリー商を通して、アノテーションや訓練なしにそのような問題を解く。
様々な最先端のGANモデルに対する実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2022-02-19T17:46:02Z) - Adversarial Examples Detection with Bayesian Neural Network [57.185482121807716]
本稿では,ランダムな成分が予測器の滑らかさを向上できるという観測によって動機づけられた敵の例を検出するための新しい枠組みを提案する。
本稿では,BATer を略した新しいベイズ対向型サンプル検出器を提案し,対向型サンプル検出の性能を向上させる。
論文 参考訳(メタデータ) (2021-05-18T15:51:24Z) - Regional Image Perturbation Reduces $L_p$ Norms of Adversarial Examples
While Maintaining Model-to-model Transferability [3.578666449629947]
複雑な手法を使わずに効果的な地域摂動を創出できることを示す。
我々は,クロスエントロピー符号を用いた非常に単純な地域対向的摂動攻撃法を開発した。
複数のモデルを用いたImageNet実験では, 平均して, 生成した敵対例の76%がモデル-モデル間転送性を維持していることがわかった。
論文 参考訳(メタデータ) (2020-07-07T04:33:16Z) - Cross-domain Object Detection through Coarse-to-Fine Feature Adaptation [62.29076080124199]
本稿では,クロスドメインオブジェクト検出のための特徴適応手法を提案する。
粗粒度では、アテンション機構を採用して前景領域を抽出し、その辺縁分布に応じて整列する。
粒度の細かい段階では、同じカテゴリのグローバルプロトタイプと異なるドメインとの距離を最小化することにより、前景の条件分布アライメントを行う。
論文 参考訳(メタデータ) (2020-03-23T13:40:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。