論文の概要: Symmetry Subgroup Defense Against Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2210.04087v1
- Date: Sat, 8 Oct 2022 18:49:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 16:10:39.631313
- Title: Symmetry Subgroup Defense Against Adversarial Attacks
- Title(参考訳): 対人攻撃に対するシンメトリーサブグループ防衛
- Authors: Blerta Lindqvist
- Abstract要約: 畳み込みニューラルネットワーク(CNN)の不変性を無視した敵攻撃と防御
本稿では,ゼロ知識の敵から完全知識の敵まで幅広い脅威モデルについて,肯定的に答える。
また, モデル構造やパラメータに何も変更を加えることなく, 対称防御のみを用いることで, 白箱PGD攻撃に対して防御できることがわかった。
- 参考スコア(独自算出の注目度): 0.05076419064097732
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks and defenses disregard the lack of invariance of
convolutional neural networks (CNNs), that is, the inability of CNNs to
classify samples and their symmetric transformations the same. The lack of
invariance of CNNs with respect to symmetry transformations is detrimental when
classifying transformed original samples but not necessarily detrimental when
classifying transformed adversarial samples. For original images, the lack of
invariance means that symmetrically transformed original samples are classified
differently from their correct labels. However, for adversarial images, the
lack of invariance means that symmetrically transformed adversarial images are
classified differently from their incorrect adversarial labels. Might the CNN
lack of invariance revert symmetrically transformed adversarial samples to the
correct classification? This paper answers this question affirmatively for a
threat model that ranges from zero-knowledge adversaries to perfect-knowledge
adversaries. We base our defense against perfect-knowledge adversaries on
devising a Klein four symmetry subgroup that incorporates an additional
artificial symmetry of pixel intensity inversion. The closure property of the
subgroup not only provides a framework for the accuracy evaluation but also
confines the transformations that an adaptive, perfect-knowledge adversary can
apply. We find that by using only symmetry defense, no adversarial samples, and
by changing nothing in the model architecture and parameters, we can defend
against white-box PGD adversarial attacks, surpassing the PGD adversarial
training defense by up to ~50% even against a perfect-knowledge adversary for
ImageNet. The proposed defense also maintains and surpasses the classification
accuracy for non-adversarial samples.
- Abstract(参考訳): 敵対的な攻撃と防御は畳み込みニューラルネットワーク(cnns)の不分散の欠如、すなわちサンプルを分類するcnnができないことやそれらの対称変換を無視する。
対称性変換に関するcnnの不変性の欠如は、変換元のサンプルを分類する場合は有害であるが、変換された逆のサンプルを分類する場合は必ずしも有害ではない。
原画像では、不変性の欠如は、対称変換された原サンプルが正しいラベルと異なる分類がなされていることを意味する。
しかし, 逆境画像では, 対称変換された逆境画像は, 不正な逆境ラベルとは異なる分類がなされている。
CNNの非分散の欠如は、対称変換された逆数サンプルを正しい分類に戻すか?
本稿では,ゼロ知識の敵から完全知識の敵まで幅広い脅威モデルを提案する。
我々は、画素強度反転のさらなる人工対称性を含むクライン四対称性部分群を考案することによる完全知識の敵に対する防御を基礎とする。
部分群の閉包性は、精度評価のためのフレームワークを提供するだけでなく、適応的で完全知識の敵が適用できる変換を限定する。
我々は、対称防御のみを使用することで、敵のサンプルを使わず、モデルアーキテクチャやパラメータに何も変更することなく、pgdの敵意攻撃を防御することができ、imagenetの完全知識の敵に対してさえ、pgdの敵意防衛を最大50%超えている。
提案手法は,非敵試料の分類精度を維持・超えている。
関連論文リスト
- Privacy Assessment on Reconstructed Images: Are Existing Evaluation
Metrics Faithful to Human Perception? [86.58989831070426]
本研究では,手作りのメトリクスの忠実さを,再構成画像からの人間のプライバシー情報の認識に適用する。
本稿では,SemSimと呼ばれる学習に基づく尺度を提案し,オリジナル画像と再構成画像のセマンティック類似性を評価する。
論文 参考訳(メタデータ) (2023-09-22T17:58:04Z) - Symmetry Defense Against XGBoost Adversarial Perturbation Attacks [0.05076419064097732]
直交摂動攻撃に対して,直交型決定木 (GBDT) などの木に基づくアンサンブル分類器の防御に対称性が有効かどうかを検討する。
我々は,9つの摂動攻撃に対するGBDT対称性の防御を,ゼロ知識から完全知識への脅威モデルを用いて適用し,評価した。
論文 参考訳(メタデータ) (2023-08-10T13:39:19Z) - Semantic Image Attack for Visual Model Diagnosis [80.36063332820568]
実際には、特定の列車およびテストデータセットに関する計量分析は、信頼性や公正なMLモデルを保証しない。
本稿では,セマンティック・イメージ・アタック(SIA)を提案する。
論文 参考訳(メタデータ) (2023-03-23T03:13:04Z) - Feature Space Targeted Attacks by Statistic Alignment [74.40447383387574]
特徴空間ターゲットは、中間特徴写像を変調して摂動画像を攻撃する。
画素ワイドユークリッド距離の現在の選択は、ソースとターゲットの特徴に不合理に空間整合性制約を課すため、不一致を測定することが疑問視されている。
本稿では,Pair-wise Alignment AttackとGlobal-wise Alignment Attackという2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2021-05-25T03:46:39Z) - Benford's law: what does it say on adversarial images? [0.0]
自然画像と逆画像の統計的差異について検討する。
本稿では, 適切な画像変換と, 対角攻撃のクラスを用いて, 対角画像中の画素の先頭桁の分布がベンフォードの法則から逸脱していることを示す。
論文 参考訳(メタデータ) (2021-02-09T02:50:29Z) - Dynamical signatures of symmetry protected topology following symmetry
breaking [0.0]
対称性保護トポロジカル(SPT)系の短時間非平衡力学におけるトポロジカルシグネチャについて検討する。
純粋状態とアンサンブルシグネチャの両方が極めて堅牢であることを示す。
論文 参考訳(メタデータ) (2021-01-29T04:55:28Z) - Error Diffusion Halftoning Against Adversarial Examples [85.11649974840758]
敵対的な例には、深いニューラルネットワークを誤った予測にだますことができる慎重に作られた摂動が含まれます。
誤り拡散のハーフトン化に基づく新しい画像変換防御を提案し、逆転の例に対して防御するための逆転訓練と組み合わせます。
論文 参考訳(メタデータ) (2021-01-23T07:55:02Z) - Image Steganography based on Iteratively Adversarial Samples of A
Synchronized-directions Sub-image [40.50020437054701]
ステガノグラフィは、機能ベーススタグアナライザと畳み込みニューラルネットワーク(cnn)ベースのステガアナライザの両方の課題に直面する必要がある。
本稿では,ITE-SYN(ITEratively adversarial perturbations on a SYNchronized-directions sub-image)という新しいステガノグラフィー手法を提案する。
論文 参考訳(メタデータ) (2021-01-13T17:22:27Z) - Handling Object Symmetries in CNN-based Pose Estimation [7.1577508803778045]
畳み込みニューラルネットワーク(CNN)に基づくポーズ推定器が対称オブジェクトを持つ問題について検討する。
特に、対称性を意識した損失を生成するための一般的なミニ・オーバー・対称性のアプローチは、勾配に基づく最適化ではうまくいかない傾向にある。
これらの知見から「閉対称性ループ」(csl)と呼ばれる表現を提案し、関連するベクトルの角度を対称性の順序に乗じて6-DOFに一般化する。
論文 参考訳(メタデータ) (2020-11-26T10:10:25Z) - Semantically Adversarial Learnable Filters [53.3223426679514]
提案するフレームワークは,マルチタスク目的関数における構造損失と意味的対立損失を組み合わせて,完全な畳み込みニューラルネットワークを訓練する。
構造損失は、ターゲット画像処理フィルタによって型と大きさが定義される摂動を生成するのに役立つ。
意味的敵対的損失は、フィルタされた画像が同じグループのラベルで分類されるのを防ぐために、(意味)ラベルの群が摂動を作らなければならないと考えている。
論文 参考訳(メタデータ) (2020-08-13T18:12:40Z) - Asymmetric Distribution Measure for Few-shot Learning [82.91276814477126]
メトリクスベースの少数ショット画像分類は、クエリ画像とサポートクラスの関係を測定することを目的としている。
本稿では,非対称分布測定(ADM)ネットワークを提案する。
5ドルの$-wayの$-shotタスクで最先端のメソッドよりも3.02%の$と1.56%の$を達成しています。
論文 参考訳(メタデータ) (2020-02-01T06:41:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。