論文の概要: Reversible adversarial examples against local visual perturbation
- arxiv url: http://arxiv.org/abs/2110.02700v1
- Date: Wed, 6 Oct 2021 12:37:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-07 14:24:57.502426
- Title: Reversible adversarial examples against local visual perturbation
- Title(参考訳): 局所視覚摂動に対する可逆的逆例
- Authors: Zhaoxia Yin, Li Chen, and Shaowei Zhu
- Abstract要約: 局所的な視覚的対向摂動に対する可逆的対向的例を生成する。
逆データ埋め込み技術を用いて、元の画像の復元に必要な情報を敵の例に埋め込む。
ImageNetデータセットの実験では,攻撃能力を確保しつつ,元の画像を損失なく復元できることが示されている。
- 参考スコア(独自算出の注目度): 14.916089354436732
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, studies have indicated that adversarial attacks pose a threat to
deep learning systems. However, when there are only adversarial examples,
people cannot get the original images, so there is research on reversible
adversarial attacks. However, the existing strategies are aimed at invisible
adversarial perturbation, and do not consider the case of locally visible
adversarial perturbation. In this article, we generate reversible adversarial
examples for local visual adversarial perturbation, and use reversible data
embedding technology to embed the information needed to restore the original
image into the adversarial examples to generate examples that are both
adversarial and reversible. Experiments on ImageNet dataset show that our
method can restore the original image losslessly while ensuring the attack
capability.
- Abstract(参考訳): 近年、敵対的攻撃がディープラーニングシステムに脅威をもたらすことが研究で示されている。
しかし、敵対的な例のみが存在する場合、原画像は入手できないため、可逆的な敵対攻撃に関する研究がある。
しかし、既存の戦略は目に見えない逆境の摂動を目標としており、局所的に見える逆境の摂動を考慮しない。
本稿では、局所的な視覚的対向摂動に対する可逆的対向的例を生成し、可逆的データ埋め込み技術を用いて、原画像の復元に必要な情報を逆向的例に埋め込んで、逆向的かつ逆向的な例を生成する。
ImageNetデータセットの実験では,攻撃能力を確保しつつ,元の画像を損失なく復元できることが示されている。
関連論文リスト
- IRAD: Implicit Representation-driven Image Resampling against Adversarial Attacks [16.577595936609665]
本稿では,画像再サンプリングという,敵対的攻撃に対する新たなアプローチを提案する。
画像再サンプリングは、幾何学的変換によって指定されたシーンの再調整や再レンダリングの過程をシミュレートして、離散画像を新しい画像に変換する。
本手法は,クリーンな画像の精度を維持しつつ,多様な深層モデルの様々な攻撃に対する対角的堅牢性を著しく向上することを示す。
論文 参考訳(メタデータ) (2023-10-18T11:19:32Z) - Imperceptible Adversarial Attack via Invertible Neural Networks [9.190559753030001]
Invertible Neural Networks (AdvINN) を用いた新しい逆襲攻撃法を導入し, 頑健で知覚不能な逆襲例を生成する。
CIFAR-10, CIFAR-100, ImageNet-1Kでの実験により, 提案したAdvINN法は非知覚の逆画像を生成することができることを示した。
論文 参考訳(メタデータ) (2022-11-28T03:29:39Z) - The Enemy of My Enemy is My Friend: Exploring Inverse Adversaries for
Improving Adversarial Training [72.39526433794707]
敵の訓練とその変種は、敵の例に対抗して最も効果的なアプローチであることが示されている。
本稿では,モデルが類似した出力を生成することを奨励する,新たな対角訓練手法を提案する。
本手法は,最先端のロバスト性および自然な精度を実現する。
論文 参考訳(メタデータ) (2022-11-01T15:24:26Z) - On the reversibility of adversarial attacks [41.94594666541757]
敵対攻撃は、分類器の予測を変える摂動で画像を修正する。
そこで本研究では,原画像に対して予測されたクラス間のマッピングの予測可能性と,対応する逆例について検討する。
我々は, 可逆性を, 逆例の原クラスや真クラスを検索する際の精度として定量化する。
論文 参考訳(メタデータ) (2022-06-01T21:18:11Z) - Adversarial defenses via a mixture of generators [0.0]
敵対的な例は、深層学習システムの比較的弱い特徴として残っています。
本研究では,複数の敵攻撃を同時に行うことで,このようなシステムを監督せずに訓練することが可能であることを示す。
本システムでは,MNISTデータセットのアタックやデータラベルを使用せずに,未確認例のクラス情報を復元することができる。
論文 参考訳(メタデータ) (2021-10-05T21:27:50Z) - Delving into Deep Image Prior for Adversarial Defense: A Novel
Reconstruction-based Defense Framework [34.75025893777763]
本研究は, より深いイメージを掘り下げることによる, 新規かつ効果的な再構築型防御フレームワークを提案する。
提案手法は, モデル決定過程を分析し, 明示的に記述する。
実験により,提案手法は,ホワイトボックス攻撃とディフェンスアウェア攻撃の両面において,既存の最先端の再構築手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-07-31T08:49:17Z) - Towards Defending against Adversarial Examples via Attack-Invariant
Features [147.85346057241605]
ディープニューラルネットワーク(DNN)は敵の雑音に弱い。
敵の強靭性は、敵の例を利用して改善することができる。
目に見えない種類の敵の例に基づいて訓練されたモデルは、一般的に、目に見えない種類の敵の例にうまく一般化できない。
論文 参考訳(メタデータ) (2021-06-09T12:49:54Z) - Adversarial Examples Detection beyond Image Space [88.7651422751216]
摂動と予測信頼の間にはコンプライアンスが存在することが分かり、予測信頼の面から少数の摂動攻撃を検出するための指針となる。
本研究では,画像ストリームが画素アーティファクトに注目し,勾配ストリームが信頼度アーティファクトに対応する2ストリームアーキテクチャによる画像空間を超えた手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T09:55:03Z) - Detecting Adversarial Examples by Input Transformations, Defense
Perturbations, and Voting [71.57324258813674]
畳み込みニューラルネットワーク(CNN)は、視覚認識タスクにおいて超人的性能に達することが証明されている。
CNNは敵の例、すなわち不正な出力をネットワークに強制する悪意のある画像によって簡単に騙される。
本稿では,画像変換による敵例の検出を幅広く検討し,新しい手法を提案する。
論文 参考訳(メタデータ) (2021-01-27T14:50:41Z) - Error Diffusion Halftoning Against Adversarial Examples [85.11649974840758]
敵対的な例には、深いニューラルネットワークを誤った予測にだますことができる慎重に作られた摂動が含まれます。
誤り拡散のハーフトン化に基づく新しい画像変換防御を提案し、逆転の例に対して防御するための逆転訓練と組み合わせます。
論文 参考訳(メタデータ) (2021-01-23T07:55:02Z) - Adversarial Training against Location-Optimized Adversarial Patches [84.96938953835249]
反対のパッチ: 明らかに見えますが 反対に作られた長方形のパッチです
まず、画像内の位置を積極的に最適化しながら、相手パッチを得るための実践的なアプローチを考案する。
CIFAR10とGTSRBでは,これらの位置最適化された対向パッチに対して対向トレーニングを適用し,ロバスト性を著しく向上した。
論文 参考訳(メタデータ) (2020-05-05T16:17:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。