論文の概要: Adversarial Robustness Across Representation Spaces
- arxiv url: http://arxiv.org/abs/2012.00802v1
- Date: Tue, 1 Dec 2020 19:55:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-31 00:30:49.338127
- Title: Adversarial Robustness Across Representation Spaces
- Title(参考訳): 表現空間における対向ロバスト性
- Authors: Pranjal Awasthi, George Yu, Chun-Sung Ferng, Andrew Tomkins, Da-Cheng
Juan
- Abstract要約: 逆サロバスト性は、テスト時の知覚できない摂動に対するディープニューラルネットワークの感受性に対応している。
本研究では、複数の自然表現空間に適用された摂動に同時に頑健にできるディープニューラルネットワークのトレーニング問題を考察するために、設定を拡張した。
- 参考スコア(独自算出の注目度): 35.58913661509278
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial robustness corresponds to the susceptibility of deep neural
networks to imperceptible perturbations made at test time. In the context of
image tasks, many algorithms have been proposed to make neural networks robust
to adversarial perturbations made to the input pixels. These perturbations are
typically measured in an $\ell_p$ norm. However, robustness often holds only
for the specific attack used for training. In this work we extend the above
setting to consider the problem of training of deep neural networks that can be
made simultaneously robust to perturbations applied in multiple natural
representation spaces. For the case of image data, examples include the
standard pixel representation as well as the representation in the discrete
cosine transform~(DCT) basis. We design a theoretically sound algorithm with
formal guarantees for the above problem. Furthermore, our guarantees also hold
when the goal is to require robustness with respect to multiple $\ell_p$ norm
based attacks. We then derive an efficient practical implementation and
demonstrate the effectiveness of our approach on standard datasets for image
classification.
- Abstract(参考訳): 敵対的ロバスト性は、テスト時に生じる知覚不能な摂動に対するディープニューラルネットワークの感受性に対応する。
画像タスクの文脈では、ニューラルネットワークを入力ピクセルに対する逆摂動に頑健にするために、多くのアルゴリズムが提案されている。
これらの摂動は通常$\ell_p$ノルムで測定される。
しかし、堅牢性は訓練に使用される特定の攻撃に対してのみ維持されることが多い。
本研究では,複数の自然表現空間に適用できる摂動にロバストな深層ニューラルネットワークの学習問題を検討するために,上記の設定を拡張した。
画像データの例としては、標準的なピクセル表現や離散コサイン変換~(DCT)基底での表現がある。
上記の問題に対する公式な保証付き理論的に健全なアルゴリズムを設計する。
さらに、当社の保証は、複数の$\ell_p$標準ベースの攻撃に対して堅牢性を必要とする場合にも有効です。
次に、効率的な実践的実装を導き、画像分類のための標準データセットに対するアプローチの有効性を実証する。
関連論文リスト
- Robust width: A lightweight and certifiable adversarial defense [0.0]
逆例は、モデルが誤った予測や分類を行うように意図的に構築される。
本研究では,最近圧縮センシングに導入された頑健な幅特性(RWP)に基づく対角防御について検討する。
本稿では、RWPに基づく特定の入力浄化方式により、ほぼスパースな画像に対して理論的ロバスト性を保証することを示す。
論文 参考訳(メタデータ) (2024-05-24T22:50:50Z) - A Geometrical Approach to Evaluate the Adversarial Robustness of Deep
Neural Networks [52.09243852066406]
対向収束時間スコア(ACTS)は、対向ロバストネス指標として収束時間を測定する。
我々は,大規模画像Netデータセットに対する異なる敵攻撃に対して,提案したACTSメトリックの有効性と一般化を検証する。
論文 参考訳(メタデータ) (2023-10-10T09:39:38Z) - Deep Nonparametric Convexified Filtering for Computational Photography,
Image Synthesis and Adversarial Defense [1.79487674052027]
本研究の目的は,不完全な画像から実シーンを復元する計算写真のための汎用フレームワークを提供することである。
画像形成の背後にある物理方程式に類似する非パラメトリックディープネットワークで構成されている。
我々は、画像分類深層ネットワークを敵攻撃アルゴリズムに対してリアルタイムに防御する能力を実証的に検証する。
論文 参考訳(メタデータ) (2023-09-13T04:57:12Z) - Improving Adversarial Robustness of Masked Autoencoders via Test-time
Frequency-domain Prompting [133.55037976429088]
BERTプリトレーニング(BEiT, MAE)を備えた視覚変換器の対向ロバスト性について検討する。
意外な観察は、MAEが他のBERT事前訓練法よりも敵の頑健さが著しく悪いことである。
我々は,MAEの対角的堅牢性を高めるための,シンプルで効果的な方法を提案する。
論文 参考訳(メタデータ) (2023-08-20T16:27:17Z) - Robust Real-World Image Super-Resolution against Adversarial Attacks [115.04009271192211]
準知覚不可能な雑音を持つ逆画像サンプルは、深層学習SRモデルを脅かす可能性がある。
本稿では,現実のSRに対して,潜在的な敵対的雑音をランダムに消去する頑健なディープラーニングフレームワークを提案する。
提案手法は敵攻撃に敏感であり,既存のモデルや防御よりも安定なSR結果を示す。
論文 参考訳(メタデータ) (2022-07-31T13:26:33Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Defending Adversarial Examples via DNN Bottleneck Reinforcement [20.08619981108837]
本稿では,敵対的攻撃に対するディープニューラルネットワーク(DNN)の脆弱性を軽減するための強化手法を提案する。
後者を維持しながら前者を補強することにより、逆らうか否かに関わらず、冗長な情報は、潜在表現から取り除かなければならない。
情報ボトルネックを強化するために,ネットワークの周波数ステアリングを改善するために,マルチスケールの低域目標とマルチスケールの高周波通信を導入する。
論文 参考訳(メタデータ) (2020-08-12T11:02:01Z) - Efficient detection of adversarial images [2.6249027950824506]
画像の画素値は外部攻撃者によって修正されるため、人間の目にはほとんど見えない。
本稿では,修正画像の検出を容易にする新しい前処理手法を提案する。
このアルゴリズムの適応バージョンでは、ランダムな数の摂動が適応的に選択される。
論文 参考訳(メタデータ) (2020-07-09T05:35:49Z) - Towards Achieving Adversarial Robustness by Enforcing Feature
Consistency Across Bit Planes [51.31334977346847]
我々は、高ビット平面の情報に基づいて粗い印象を形成するためにネットワークを訓練し、低ビット平面を用いて予測を洗練させる。
異なる量子化画像間で学習した表現に一貫性を付与することにより、ネットワークの対角的ロバスト性が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-04-01T09:31:10Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z) - Generating Semantic Adversarial Examples via Feature Manipulation [23.48763375455514]
本稿では,意味的意味を持つ構造的摂動を設計することで,より現実的な敵攻撃を提案する。
提案手法は,非絡み付きラテント符号を用いて画像の意味的属性を演算する。
我々は、普遍的で画像に依存しないセマンティック・逆境の例の存在を実証する。
論文 参考訳(メタデータ) (2020-01-06T06:28:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。