論文の概要: Symmetry Defense Against CNN Adversarial Perturbation Attacks
- arxiv url: http://arxiv.org/abs/2210.04087v3
- Date: Thu, 10 Aug 2023 12:42:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-11 16:48:27.362864
- Title: Symmetry Defense Against CNN Adversarial Perturbation Attacks
- Title(参考訳): CNN逆行性摂動障害に対するシンメトリー防御
- Authors: Blerta Lindqvist
- Abstract要約: 本稿では,畳み込みニューラルネットワーク分類器を対向的摂動攻撃に対して頑健にするために対称性を用いる。
提案した対称性の防御は、ImageNetのほぼデフォルトの精度で勾配ベースおよびランダム検索攻撃に成功している。
- 参考スコア(独自算出の注目度): 0.05076419064097732
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper uses symmetry to make Convolutional Neural Network classifiers
(CNNs) robust against adversarial perturbation attacks. Such attacks add
perturbation to original images to generate adversarial images that fool
classifiers such as road sign classifiers of autonomous vehicles. Although
symmetry is a pervasive aspect of the natural world, CNNs are unable to handle
symmetry well. For example, a CNN can classify an image differently from its
mirror image. For an adversarial image that misclassifies with a wrong label
$l_w$, CNN inability to handle symmetry means that a symmetric adversarial
image can classify differently from the wrong label $l_w$. Further than that,
we find that the classification of a symmetric adversarial image reverts to the
correct label. To classify an image when adversaries are unaware of the
defense, we apply symmetry to the image and use the classification label of the
symmetric image. To classify an image when adversaries are aware of the
defense, we use mirror symmetry and pixel inversion symmetry to form a symmetry
group. We apply all the group symmetries to the image and decide on the output
label based on the agreement of any two of the classification labels of the
symmetry images. Adaptive attacks fail because they need to rely on loss
functions that use conflicting CNN output values for symmetric images. Without
attack knowledge, the proposed symmetry defense succeeds against both
gradient-based and random-search attacks, with up to near-default accuracies
for ImageNet. The defense even improves the classification accuracy of original
images.
- Abstract(参考訳): 本稿では,畳み込みニューラルネットワーク分類器(CNN)を対向摂動攻撃に対して頑健にするために対称性を用いる。
このような攻撃は、オリジナルの画像に摂動を加え、自動運転車の道路標識分類器のような不正な分類器を生成する。
対称性は自然界の広汎な側面であるが、CNNは対称性をうまく扱えない。
例えば、cnnは鏡像とは異なる画像を分類することができる。
間違ったラベル $l_w$ で誤分類された逆画像の場合、cnn は対称性を処理できないため、対称逆画像は間違ったラベル $l_w$ とは異なる分類が可能である。
さらに、対称逆画像の分類が正しいラベルに戻すことが判明した。
敵が防御に気づいていないときの画像を分類するために、画像に対称性を適用し、対称画像の分類ラベルを使用する。
敵が防御に気付くと画像を分類するために、ミラー対称性と画素反転対称性を用いて対称群を形成する。
画像にすべての群対称性を適用し、対称性画像の分類ラベルのいずれかの一致に基づいて出力ラベルを決定する。
適応攻撃は、対称画像に対して競合するCNN出力値を使用する損失関数に依存する必要があるため失敗する。
攻撃知識がなければ、提案された対称性の防御は、勾配ベースとランダム検索の両方の攻撃に対して成功し、ImageNetのほぼデフォルトの精度を持つ。
防御は元の画像の分類精度も向上させる。
関連論文リスト
- Privacy Assessment on Reconstructed Images: Are Existing Evaluation
Metrics Faithful to Human Perception? [86.58989831070426]
本研究では,手作りのメトリクスの忠実さを,再構成画像からの人間のプライバシー情報の認識に適用する。
本稿では,SemSimと呼ばれる学習に基づく尺度を提案し,オリジナル画像と再構成画像のセマンティック類似性を評価する。
論文 参考訳(メタデータ) (2023-09-22T17:58:04Z) - Symmetry Defense Against XGBoost Adversarial Perturbation Attacks [0.05076419064097732]
直交摂動攻撃に対して,直交型決定木 (GBDT) などの木に基づくアンサンブル分類器の防御に対称性が有効かどうかを検討する。
我々は,9つの摂動攻撃に対するGBDT対称性の防御を,ゼロ知識から完全知識への脅威モデルを用いて適用し,評価した。
論文 参考訳(メタデータ) (2023-08-10T13:39:19Z) - Semantic Image Attack for Visual Model Diagnosis [80.36063332820568]
実際には、特定の列車およびテストデータセットに関する計量分析は、信頼性や公正なMLモデルを保証しない。
本稿では,セマンティック・イメージ・アタック(SIA)を提案する。
論文 参考訳(メタデータ) (2023-03-23T03:13:04Z) - Feature Space Targeted Attacks by Statistic Alignment [74.40447383387574]
特徴空間ターゲットは、中間特徴写像を変調して摂動画像を攻撃する。
画素ワイドユークリッド距離の現在の選択は、ソースとターゲットの特徴に不合理に空間整合性制約を課すため、不一致を測定することが疑問視されている。
本稿では,Pair-wise Alignment AttackとGlobal-wise Alignment Attackという2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2021-05-25T03:46:39Z) - Benford's law: what does it say on adversarial images? [0.0]
自然画像と逆画像の統計的差異について検討する。
本稿では, 適切な画像変換と, 対角攻撃のクラスを用いて, 対角画像中の画素の先頭桁の分布がベンフォードの法則から逸脱していることを示す。
論文 参考訳(メタデータ) (2021-02-09T02:50:29Z) - Dynamical signatures of symmetry protected topology following symmetry
breaking [0.0]
対称性保護トポロジカル(SPT)系の短時間非平衡力学におけるトポロジカルシグネチャについて検討する。
純粋状態とアンサンブルシグネチャの両方が極めて堅牢であることを示す。
論文 参考訳(メタデータ) (2021-01-29T04:55:28Z) - Error Diffusion Halftoning Against Adversarial Examples [85.11649974840758]
敵対的な例には、深いニューラルネットワークを誤った予測にだますことができる慎重に作られた摂動が含まれます。
誤り拡散のハーフトン化に基づく新しい画像変換防御を提案し、逆転の例に対して防御するための逆転訓練と組み合わせます。
論文 参考訳(メタデータ) (2021-01-23T07:55:02Z) - Image Steganography based on Iteratively Adversarial Samples of A
Synchronized-directions Sub-image [40.50020437054701]
ステガノグラフィは、機能ベーススタグアナライザと畳み込みニューラルネットワーク(cnn)ベースのステガアナライザの両方の課題に直面する必要がある。
本稿では,ITE-SYN(ITEratively adversarial perturbations on a SYNchronized-directions sub-image)という新しいステガノグラフィー手法を提案する。
論文 参考訳(メタデータ) (2021-01-13T17:22:27Z) - Handling Object Symmetries in CNN-based Pose Estimation [7.1577508803778045]
畳み込みニューラルネットワーク(CNN)に基づくポーズ推定器が対称オブジェクトを持つ問題について検討する。
特に、対称性を意識した損失を生成するための一般的なミニ・オーバー・対称性のアプローチは、勾配に基づく最適化ではうまくいかない傾向にある。
これらの知見から「閉対称性ループ」(csl)と呼ばれる表現を提案し、関連するベクトルの角度を対称性の順序に乗じて6-DOFに一般化する。
論文 参考訳(メタデータ) (2020-11-26T10:10:25Z) - Semantically Adversarial Learnable Filters [53.3223426679514]
提案するフレームワークは,マルチタスク目的関数における構造損失と意味的対立損失を組み合わせて,完全な畳み込みニューラルネットワークを訓練する。
構造損失は、ターゲット画像処理フィルタによって型と大きさが定義される摂動を生成するのに役立つ。
意味的敵対的損失は、フィルタされた画像が同じグループのラベルで分類されるのを防ぐために、(意味)ラベルの群が摂動を作らなければならないと考えている。
論文 参考訳(メタデータ) (2020-08-13T18:12:40Z) - Asymmetric Distribution Measure for Few-shot Learning [82.91276814477126]
メトリクスベースの少数ショット画像分類は、クエリ画像とサポートクラスの関係を測定することを目的としている。
本稿では,非対称分布測定(ADM)ネットワークを提案する。
5ドルの$-wayの$-shotタスクで最先端のメソッドよりも3.02%の$と1.56%の$を達成しています。
論文 参考訳(メタデータ) (2020-02-01T06:41:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。