論文の概要: AdvDrop: Adversarial Attack to DNNs by Dropping Information
- arxiv url: http://arxiv.org/abs/2108.09034v1
- Date: Fri, 20 Aug 2021 07:46:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-23 13:32:25.629047
- Title: AdvDrop: Adversarial Attack to DNNs by Dropping Information
- Title(参考訳): AdvDrop:DNNに対する情報ドロップによる敵攻撃
- Authors: Ranjie Duan, Yuefeng Chen, Dantong Niu, Yun Yang, A. K. Qin, Yuan He
- Abstract要約: 我々は,既存の画像情報を削除することで,敵の例を作成する,textitAdvDropという新たな敵攻撃を提案する。
大規模な実験により,textitAdvDropの有効性を実証し, 現状の防衛システムによる防御が困難であることを示す。
- 参考スコア(独自算出の注目度): 12.090562737098407
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Human can easily recognize visual objects with lost information: even losing
most details with only contour reserved, e.g. cartoon. However, in terms of
visual perception of Deep Neural Networks (DNNs), the ability for recognizing
abstract objects (visual objects with lost information) is still a challenge.
In this work, we investigate this issue from an adversarial viewpoint: will the
performance of DNNs decrease even for the images only losing a little
information? Towards this end, we propose a novel adversarial attack, named
\textit{AdvDrop}, which crafts adversarial examples by dropping existing
information of images. Previously, most adversarial attacks add extra
disturbing information on clean images explicitly. Opposite to previous works,
our proposed work explores the adversarial robustness of DNN models in a novel
perspective by dropping imperceptible details to craft adversarial examples. We
demonstrate the effectiveness of \textit{AdvDrop} by extensive experiments, and
show that this new type of adversarial examples is more difficult to be
defended by current defense systems.
- Abstract(参考訳): 人間は、失われた情報を持つ視覚オブジェクトを容易に認識することができる。
漫画だ
しかし、ディープニューラルネットワーク(dnn)の視覚知覚に関しては、抽象オブジェクト(情報を失った視覚オブジェクト)を認識する能力は依然として課題である。
本研究は,DNNの性能が,わずかな情報しか失わない画像においても低下するか,という逆の視点から,この問題を考察する。
そこで本研究では,画像の既存情報を削除することで,敵の例を再現する新たな攻撃手法であるtextit{AdvDrop}を提案する。
これまでは、ほとんどの敵攻撃は、クリーンな画像に余計な乱雑な情報を加えていた。
従来の研究に対抗して,本研究では,DNNモデルの対角的堅牢性について,非知覚的な詳細をクラフト対向例に落とし込むことにより,新たな視点で検討する。
広範にわたる実験により, \textit{advdrop}の有効性を実証し,この新たなタイプの敵対的例は,現在の防衛システムによって防御されるのがより困難であることを示す。
関連論文リスト
- Effective and Efficient Adversarial Detection for Vision-Language Models via A Single Vector [97.92369017531038]
Diverse hArmful Responses (RADAR) を用いた新しい laRge-scale Adervsarial 画像データセットを構築した。
そこで我々は,視覚言語モデル (VLM) の隠れ状態から抽出した1つのベクトルを利用して,入力中の良質な画像に対して対向画像を検出する,新しいiN時間埋め込み型AdveRSarial Image Detectction (NEARSIDE) 法を開発した。
論文 参考訳(メタデータ) (2024-10-30T10:33:10Z) - A Survey on Transferability of Adversarial Examples across Deep Neural Networks [53.04734042366312]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - Imperceptible Adversarial Attack via Invertible Neural Networks [9.190559753030001]
Invertible Neural Networks (AdvINN) を用いた新しい逆襲攻撃法を導入し, 頑健で知覚不能な逆襲例を生成する。
CIFAR-10, CIFAR-100, ImageNet-1Kでの実験により, 提案したAdvINN法は非知覚の逆画像を生成することができることを示した。
論文 参考訳(メタデータ) (2022-11-28T03:29:39Z) - Attack to Fool and Explain Deep Networks [59.97135687719244]
対人摂動における人為的意味のパターンの証拠を提供することによって、私たちは逆転する。
我々の主な貢献は、その後視覚モデルを理解するためのツールに変換される、新しい実用的対人攻撃である。
論文 参考訳(メタデータ) (2021-06-20T03:07:36Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Detecting Cross-Modal Inconsistency to Defend Against Neural Fake News [57.9843300852526]
我々は、画像やキャプションを含む機械生成ニュースに対して、より現実的で挑戦的な対策を導入する。
敵が悪用できる可能性のある弱点を特定するために、4つの異なる種類の生成された記事からなるNeuralNewsデータセットを作成します。
ユーザ実験から得られた貴重な知見に加えて,視覚的意味的不整合の検出にもとづく比較的効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T14:13:15Z) - Defending Adversarial Examples via DNN Bottleneck Reinforcement [20.08619981108837]
本稿では,敵対的攻撃に対するディープニューラルネットワーク(DNN)の脆弱性を軽減するための強化手法を提案する。
後者を維持しながら前者を補強することにより、逆らうか否かに関わらず、冗長な情報は、潜在表現から取り除かなければならない。
情報ボトルネックを強化するために,ネットワークの周波数ステアリングを改善するために,マルチスケールの低域目標とマルチスケールの高周波通信を導入する。
論文 参考訳(メタデータ) (2020-08-12T11:02:01Z) - Stylized Adversarial Defense [105.88250594033053]
逆行訓練は摂動パターンを生成し、モデルを堅牢化するためのトレーニングセットにそれらを含む。
我々は、より強力な敵を作るために、機能空間から追加情報を活用することを提案する。
我々の対人訓練アプローチは、最先端の防御と比べて強い堅牢性を示している。
論文 参考訳(メタデータ) (2020-07-29T08:38:10Z) - Evaluating a Simple Retraining Strategy as a Defense Against Adversarial
Attacks [17.709146615433458]
我々は、KNNのような単純なアルゴリズムが、再トレーニングに必要な逆画像のラベルを決定するためにどのように使用できるかを示す。
CIFAR-10とTinyImageNetという2つの標準データセットで結果を示す。
論文 参考訳(メタデータ) (2020-07-20T07:49:33Z) - Heat and Blur: An Effective and Fast Defense Against Adversarial
Examples [2.2843885788439797]
特徴可視化と入力修正を組み合わせた簡易な防御法を提案する。
我々はこれらの熱マップを防衛の基盤として利用し、敵効果は巨大なぼやけによって損なわれる。
また,攻撃と防御の効果をより徹底的かつ記述的に捉えることのできる,新たな評価指標も提供する。
論文 参考訳(メタデータ) (2020-03-17T08:11:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。