論文の概要: GraCIAS: Grassmannian of Corrupted Images for Adversarial Security
- arxiv url: http://arxiv.org/abs/2005.02936v2
- Date: Thu, 7 May 2020 15:11:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 05:25:16.165559
- Title: GraCIAS: Grassmannian of Corrupted Images for Adversarial Security
- Title(参考訳): GraCIAS: 敵の安全のために崩壊した画像のグラスマン派
- Authors: Ankita Shukla, Pavan Turaga and Saket Anand
- Abstract要約: 本研究では,入力画像のみにランダムな画像破損を適用する防衛戦略を提案する。
クリーン画像の投影作用素と逆摂動バージョンとの近接関係は、グラスマン空間上の測地線距離と行列フロベニウスノルムとの接点を通して展開する。
最先端のアプローチとは異なり、再訓練がなくても、提案した戦略はImageNetの防御精度を4.5%向上させる。
- 参考スコア(独自算出の注目度): 4.259219671110274
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Input transformation based defense strategies fall short in defending against
strong adversarial attacks. Some successful defenses adopt approaches that
either increase the randomness within the applied transformations, or make the
defense computationally intensive, making it substantially more challenging for
the attacker. However, it limits the applicability of such defenses as a
pre-processing step, similar to computationally heavy approaches that use
retraining and network modifications to achieve robustness to perturbations. In
this work, we propose a defense strategy that applies random image corruptions
to the input image alone, constructs a self-correlation based subspace followed
by a projection operation to suppress the adversarial perturbation. Due to its
simplicity, the proposed defense is computationally efficient as compared to
the state-of-the-art, and yet can withstand huge perturbations. Further, we
develop proximity relationships between the projection operator of a clean
image and of its adversarially perturbed version, via bounds relating geodesic
distance on the Grassmannian to matrix Frobenius norms. We empirically show
that our strategy is complementary to other weak defenses like JPEG compression
and can be seamlessly integrated with them to create a stronger defense. We
present extensive experiments on the ImageNet dataset across four different
models namely InceptionV3, ResNet50, VGG16 and MobileNet models with
perturbation magnitude set to {\epsilon} = 16. Unlike state-of-the-art
approaches, even without any retraining, the proposed strategy achieves an
absolute improvement of ~ 4.5% in defense accuracy on ImageNet.
- Abstract(参考訳): 入力変換に基づく防御戦略は、強力な敵の攻撃に対する防御に不足している。
いくつかの防御は、適用された変換のランダム性を高めるか、防御を計算的に集中させるかのいずれかのアプローチを採用する。
しかし、リトレーニングやネットワーク修正を用いて摂動に対する堅牢性を達成する計算的に重いアプローチと同様に、前処理ステップとしてそのような防御の適用性を制限する。
本研究では,入力画像のみにランダムな画像破損を適用し,自己相関に基づく部分空間を構築し,投影操作を行い,対向的摂動を抑制する防衛戦略を提案する。
その単純さのため、提案された防御は最先端技術と比較して計算的に効率的であり、大きな摂動に耐えられる。
さらに, クリーン画像の投影演算子とその逆摂動バージョンとの近接関係を, グラスマン多様体上の測地線距離と行列フロベニウスノルムとの関係を境界として発展させる。
我々は、われわれの戦略がJPEG圧縮のような他の弱い防御と相補的なものであることを実証的に示す。
本稿では,4つの異なるモデル,inceptionv3,resnet50,vgg16,mobilenetモデルのイメージネットデータセットについて,摂動等級を"epsilon} = 16"に設定した広範な実験を行う。
最先端のアプローチとは異なり、再訓練がなくても、提案された戦略はimagenetの防御精度が約4.5%向上する。
関連論文リスト
- MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Anomaly Unveiled: Securing Image Classification against Adversarial
Patch Attacks [3.6275442368775512]
敵対的パッチ攻撃は、ディープラーニングシステムの実践的な展開に重大な脅威をもたらす。
本稿では,画像情報の分布における逆パッチの異常としての挙動について検討する。
提案する防御機構は,DBSCANと呼ばれるクラスタリング技術を用いて,異常な画像セグメントを分離する。
論文 参考訳(メタデータ) (2024-02-09T08:52:47Z) - IRAD: Implicit Representation-driven Image Resampling against Adversarial Attacks [16.577595936609665]
本稿では,画像再サンプリングという,敵対的攻撃に対する新たなアプローチを提案する。
画像再サンプリングは、幾何学的変換によって指定されたシーンの再調整や再レンダリングの過程をシミュレートして、離散画像を新しい画像に変換する。
本手法は,クリーンな画像の精度を維持しつつ,多様な深層モデルの様々な攻撃に対する対角的堅牢性を著しく向上することを示す。
論文 参考訳(メタデータ) (2023-10-18T11:19:32Z) - Scale-free Photo-realistic Adversarial Pattern Attack [20.818415741759512]
Generative Adversarial Networks (GAN)は、より意味論的に意味のあるテクスチャパターンを合成することによって、この問題に部分的に対処することができる。
本稿では,任意のスケールの画像に対して意味論的に意味のある敵対パターンを世界規模で合成する,スケールフリーな生成ベースアタックアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-12T11:25:39Z) - Error Diffusion Halftoning Against Adversarial Examples [85.11649974840758]
敵対的な例には、深いニューラルネットワークを誤った予測にだますことができる慎重に作られた摂動が含まれます。
誤り拡散のハーフトン化に基づく新しい画像変換防御を提案し、逆転の例に対して防御するための逆転訓練と組み合わせます。
論文 参考訳(メタデータ) (2021-01-23T07:55:02Z) - Attack Agnostic Adversarial Defense via Visual Imperceptible Bound [70.72413095698961]
本研究の目的は、目視攻撃と目視攻撃の両方に対して一定の範囲内で堅牢な防衛モデルを設計することである。
提案するディフェンスモデルは,MNIST,CIFAR-10,Tiny ImageNetデータベース上で評価される。
提案アルゴリズムは攻撃非依存であり,攻撃アルゴリズムの知識を必要としない。
論文 参考訳(メタデータ) (2020-10-25T23:14:26Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - SAD: Saliency-based Defenses Against Adversarial Examples [0.9786690381850356]
逆例 ドリフトモデル予測は ネットワークの本来の意図から 離れている
本研究では, 対人攻撃の影響を受けやすいクリーニングデータに対する視覚的サリエンシに基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-03-10T15:55:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。