論文の概要: Adversarial Attacks are Reversible with Natural Supervision
- arxiv url: http://arxiv.org/abs/2103.14222v2
- Date: Mon, 29 Mar 2021 02:34:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-30 11:42:24.647773
- Title: Adversarial Attacks are Reversible with Natural Supervision
- Title(参考訳): 自然観察による敵攻撃の可逆性
- Authors: Chengzhi Mao, Mia Chiquier, Hao Wang, Junfeng Yang, Carl Vondrick
- Abstract要約: 画像には、多くの敵攻撃の反転を可能にする固有の構造が含まれている。
自然構造を復元するために攻撃された画像を変更すると、多くの種類の攻撃が逆転することを示した。
この結果から,深層ネットワークは画像の自然な構造を強制しないため,敵対的な例に弱いことが示唆された。
- 参考スコア(独自算出の注目度): 28.61536318614705
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We find that images contain intrinsic structure that enables the reversal of
many adversarial attacks. Attack vectors cause not only image classifiers to
fail, but also collaterally disrupt incidental structure in the image. We
demonstrate that modifying the attacked image to restore the natural structure
will reverse many types of attacks, providing a defense. Experiments
demonstrate significantly improved robustness for several state-of-the-art
models across the CIFAR-10, CIFAR-100, SVHN, and ImageNet datasets. Our results
show that our defense is still effective even if the attacker is aware of the
defense mechanism. Since our defense is deployed during inference instead of
training, it is compatible with pre-trained networks as well as most other
defenses. Our results suggest deep networks are vulnerable to adversarial
examples partly because their representations do not enforce the natural
structure of images.
- Abstract(参考訳): 画像には、多くの敵攻撃の反転を可能にする固有の構造が含まれている。
攻撃ベクトルは、画像分類器が失敗するだけでなく、画像内の偶発的な構造を妨害する。
自然構造を復元するために攻撃された画像を変更すると、多くの種類の攻撃が逆転し、防御効果がもたらされることを示す。
実験では、CIFAR-10、CIFAR-100、SVHN、ImageNetデータセットにわたる最先端モデルのロバスト性を大幅に改善した。
その結果,攻撃者が防御機構を知っていても,我々の防御は有効であることが示された。
私たちの防御はトレーニングではなく推論中に展開されるので、事前訓練されたネットワークと他のほとんどの防御と互換性があります。
この結果から,深層ネットワークは画像の自然な構造を強制しないため,敵対的な例に弱いことが示唆された。
関連論文リスト
- Gradient Masking All-at-Once: Ensemble Everything Everywhere Is Not Robust [65.95797963483729]
あらゆるものをアンサンブルすることは、敵の例に対する防御である。
この防御は敵の攻撃に対して堅牢ではないことを示す。
次に、標準的なアダプティブアタック技術を用いて、防御の堅牢な精度を低下させる。
論文 参考訳(メタデータ) (2024-11-22T10:17:32Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - The Best Defense is a Good Offense: Adversarial Augmentation against
Adversarial Attacks [91.56314751983133]
A5$は、手元の入力に対する攻撃が失敗することを保証するために防御的摂動を構築するためのフレームワークである。
我々は,地上の真理ラベルを無視するロバスト化ネットワークを用いて,実機での防御強化を効果的に示す。
また、A5$を適用して、確実に堅牢な物理オブジェクトを作成する方法も示します。
論文 参考訳(メタデータ) (2023-05-23T16:07:58Z) - Increasing Confidence in Adversarial Robustness Evaluations [53.2174171468716]
本稿では,弱い攻撃を識別し,防御評価を弱めるテストを提案する。
本テストでは,各サンプルに対する逆例の存在を保証するため,ニューラルネットワークをわずかに修正した。
これまでに公表された13の防衛のうち、11の防衛について、元の防衛評価は我々のテストに失敗し、これらの防衛を破る強力な攻撃はそれを通過する。
論文 参考訳(メタデータ) (2022-06-28T13:28:13Z) - Towards Robust Stacked Capsule Autoencoder with Hybrid Adversarial
Training [0.0]
Capsule Network(CapsNets)は、特徴の空間的関係に基づいて画像を分類する新しいニューラルネットワークである。
積み重ねられたカプセルオートエンコーダ(SCAE)は最先端のCapsNetであり、CapsNetの教師なしの分類を初めて達成した。
そこで我々は,攻撃者が物体カプセルのコントリビューションを減らし,敵の摂動を発生させることができるSCAEに対する回避攻撃を提案する。
本研究では, 防御法と実験結果から, 改良SCAEモデルが回避攻撃下で82.14%の分類精度を達成できることを示す。
論文 参考訳(メタデータ) (2022-02-28T13:17:21Z) - Preemptive Image Robustification for Protecting Users against
Man-in-the-Middle Adversarial Attacks [16.017328736786922]
Man-in-the-Middleの敵対者は、ウェブユーザーがオンラインでアップロードした画像を悪意を持って傍受し、妨害する。
この種の攻撃は、単純なパフォーマンス劣化の上に厳しい倫理的懸念を引き起こす可能性がある。
本研究では, 対向摂動に頑健な自然画像近傍の点を求める2段階最適化アルゴリズムを考案した。
論文 参考訳(メタデータ) (2021-12-10T16:06:03Z) - Adversarial Purification through Representation Disentanglement [21.862799765511976]
ディープラーニングモデルは敵の例に弱いため、理解不能な間違いを犯す。
現在の防御法、特に浄化法は、自然画像の学習と復元によってノイズを除去する傾向がある。
本研究では, 自然画像の乱れと逆流を前処理防御として提示し, 新たな逆流浄化法を提案する。
論文 参考訳(メタデータ) (2021-10-15T01:45:31Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z) - AdvFoolGen: Creating Persistent Troubles for Deep Classifiers [17.709146615433458]
本稿では,自然画像と同じ特徴空間から攻撃画像を生成するAdvFoolGenというブラックボックス攻撃を提案する。
我々は、最先端の防衛技術に直面する攻撃の有効性と堅牢性を実証する。
論文 参考訳(メタデータ) (2020-07-20T21:27:41Z) - GraCIAS: Grassmannian of Corrupted Images for Adversarial Security [4.259219671110274]
本研究では,入力画像のみにランダムな画像破損を適用する防衛戦略を提案する。
クリーン画像の投影作用素と逆摂動バージョンとの近接関係は、グラスマン空間上の測地線距離と行列フロベニウスノルムとの接点を通して展開する。
最先端のアプローチとは異なり、再訓練がなくても、提案した戦略はImageNetの防御精度を4.5%向上させる。
論文 参考訳(メタデータ) (2020-05-06T16:17:12Z) - Deflecting Adversarial Attacks [94.85315681223702]
我々は、攻撃者が攻撃対象クラスに似た入力を生成することによって、敵攻撃を「防御」するこのサイクルを終わらせる新しいアプローチを提案する。
本稿ではまず,3つの検出機構を組み合わせたカプセルネットワークに基づくより強力な防御手法を提案する。
論文 参考訳(メタデータ) (2020-02-18T06:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。