論文の概要: Detecting Adversaries, yet Faltering to Noise? Leveraging Conditional
Variational AutoEncoders for Adversary Detection in the Presence of Noisy
Images
- arxiv url: http://arxiv.org/abs/2111.15518v1
- Date: Sun, 28 Nov 2021 20:36:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-01 15:52:23.979900
- Title: Detecting Adversaries, yet Faltering to Noise? Leveraging Conditional
Variational AutoEncoders for Adversary Detection in the Presence of Noisy
Images
- Title(参考訳): 騒音に悩まされている相手を検知する
雑音画像における逆検出のための条件変分オートエンコーダの活用
- Authors: Dvij Kalaria, Aritra Hazra and Partha Pratim Chakrabarti
- Abstract要約: 条件変分オートエンコーダ(CVAE)は、知覚不能な画像摂動を検出するのに驚くほど優れている。
画像分類ネットワーク上での敵攻撃を検出するために,CVAEを効果的に利用する方法を示す。
- 参考スコア(独自算出の注目度): 0.7734726150561086
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid advancement and increased use of deep learning models in image
identification, security becomes a major concern to their deployment in
safety-critical systems. Since the accuracy and robustness of deep learning
models are primarily attributed from the purity of the training samples,
therefore the deep learning architectures are often susceptible to adversarial
attacks. Adversarial attacks are often obtained by making subtle perturbations
to normal images, which are mostly imperceptible to humans, but can seriously
confuse the state-of-the-art machine learning models. What is so special in the
slightest intelligent perturbations or noise additions over normal images that
it leads to catastrophic classifications by the deep neural networks? Using
statistical hypothesis testing, we find that Conditional Variational
AutoEncoders (CVAE) are surprisingly good at detecting imperceptible image
perturbations. In this paper, we show how CVAEs can be effectively used to
detect adversarial attacks on image classification networks. We demonstrate our
results over MNIST, CIFAR-10 dataset and show how our method gives comparable
performance to the state-of-the-art methods in detecting adversaries while not
getting confused with noisy images, where most of the existing methods falter.
- Abstract(参考訳): 画像識別におけるディープラーニングモデルの急速な進歩と利用の増加により、セキュリティは安全クリティカルなシステムへの展開において大きな関心事となっている。
ディープラーニングモデルの正確性と堅牢性は、トレーニングサンプルの純度に起因するため、ディープラーニングアーキテクチャは、しばしば敵の攻撃に影響を受けやすい。
敵対的攻撃は、通常画像に微妙な摂動を加えることでしばしば得られるが、それは主に人間には認識できないが、最先端の機械学習モデルをひどく混乱させる可能性がある。
通常の画像よりも微妙にインテリジェントな摂動やノイズが加わり、ディープニューラルネットワークによる壊滅的な分類につながるのはなぜでしょう?
統計的仮説テストにより,条件変分オートエンコーダ(CVAE)は画像摂動を検出するのに驚くほど優れていることがわかった。
本稿では,画像分類ネットワーク上での敵攻撃の検出にCVAEを効果的に利用する方法を示す。
mnist,cifar-10データセット上での結果を実証し,既存の手法のほとんどが劣化するノイズ画像と混同されないようにして,最先端の手法と同等の性能を与える方法を示す。
関連論文リスト
- RIGID: A Training-free and Model-Agnostic Framework for Robust AI-Generated Image Detection [60.960988614701414]
RIGIDは、堅牢なAI生成画像検出のためのトレーニング不要でモデルに依存しない方法である。
RIGIDは、既存のトレーニングベースおよびトレーニング不要な検出器を著しく上回っている。
論文 参考訳(メタデータ) (2024-05-30T14:49:54Z) - Spatial-Frequency Discriminability for Revealing Adversarial Perturbations [53.279716307171604]
敵の摂動に対するディープニューラルネットワークの脆弱性は、コンピュータビジョンコミュニティで広く認識されている。
現在のアルゴリズムは、通常、自然および敵対的なデータの識別的分解を通じて、敵のパターンを検出する。
空間周波数Krawtchouk分解に基づく識別検出器を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:18:59Z) - Masked Image Training for Generalizable Deep Image Denoising [53.03126421917465]
本稿では,デノナイジングネットワークの一般化性能を高めるための新しい手法を提案する。
提案手法では,入力画像のランダムなピクセルをマスキングし,学習中に欠落した情報を再構成する。
提案手法は,他のディープラーニングモデルよりも優れた一般化能力を示し,実世界のシナリオに直接適用可能である。
論文 参考訳(メタデータ) (2023-03-23T09:33:44Z) - Deep Learning-Based Anomaly Detection in Synthetic Aperture Radar
Imaging [11.12267144061017]
本手法は,異常を周囲から逸脱する異常パターンとみなすが,その特徴を事前に把握していない。
提案手法は自己教師付きアルゴリズムを用いてこれらの問題に対処することを目的としている。
従来のReed-Xiaoliアルゴリズムと比較して,提案手法の利点を示す実験を行った。
論文 参考訳(メタデータ) (2022-10-28T10:22:29Z) - Towards Adversarial Purification using Denoising AutoEncoders [0.8701566919381223]
敵対的攻撃は、通常画像に対する微妙な摂動によってしばしば得られる。
本稿では,DAE(Denoising AutoEncoders)を利用したAPuDAEというフレームワークを提案する。
当社のフレームワークが、敵を浄化するベースラインメソッドに比較して、ほとんどの場合、優れたパフォーマンスを提供する方法を示します。
論文 参考訳(メタデータ) (2022-08-29T19:04:25Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - Robust Sensible Adversarial Learning of Deep Neural Networks for Image
Classification [6.594522185216161]
直感的な対人学習を導入し、標準的な自然の正確さと頑健さの追求と相乗効果を実証する。
具体的には、より自然な精度を維持しながら頑健なモデルを学ぶのに有用な、合理的な敵を定義する。
暗黙の損失トランケーションを用いてロバストモデルをトレーニングする,新しい,効率的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-20T22:57:44Z) - A Study for Universal Adversarial Attacks on Texture Recognition [19.79803434998116]
テストされたテクスチャデータセットの80%以上で、ディープラーニングモデルを騙すことができる画像非依存/普遍的摂動が存在することを示す。
テストデータセット上の様々な攻撃手法を用いた計算摂動は、概して準知覚可能であり、低、中、高周波数成分の構造化パターンを含む。
論文 参考訳(メタデータ) (2020-10-04T08:11:11Z) - Stereopagnosia: Fooling Stereo Networks with Adversarial Perturbations [71.00754846434744]
知覚不能な加法的摂動は,差分マップを著しく変更できることを示す。
敵データ拡張に使用すると、我々の摂動はより堅牢なトレーニングされたモデルをもたらすことを示す。
論文 参考訳(メタデータ) (2020-09-21T19:20:09Z) - Improved Detection of Adversarial Images Using Deep Neural Networks [2.3993545400014873]
近年の研究では、分類タスクに使用される機械学習モデルは、敵の例に弱いことが示されている。
本稿では,逆入力を検出するための特徴マップデノゲーションという新しい手法を提案する。
逆例からなる混合データセットにおける検出性能を示す。
論文 参考訳(メタデータ) (2020-07-10T19:02:24Z) - Towards Achieving Adversarial Robustness by Enforcing Feature
Consistency Across Bit Planes [51.31334977346847]
我々は、高ビット平面の情報に基づいて粗い印象を形成するためにネットワークを訓練し、低ビット平面を用いて予測を洗練させる。
異なる量子化画像間で学習した表現に一貫性を付与することにより、ネットワークの対角的ロバスト性が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-04-01T09:31:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。