論文の概要: Examining the Proximity of Adversarial Examples to Class Manifolds in
Deep Networks
- arxiv url: http://arxiv.org/abs/2204.05764v1
- Date: Tue, 12 Apr 2022 12:55:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-13 18:35:46.595370
- Title: Examining the Proximity of Adversarial Examples to Class Manifolds in
Deep Networks
- Title(参考訳): ディープネットワークにおけるクラスマニフォールドに対する逆例の近さの検討
- Authors: \v{S}tefan P\'oco\v{s}, Iveta Be\v{c}kov\'a, Igor Farka\v{s}
- Abstract要約: 適切なトレーニングの後、ディープニューラルネットワークは、敵対的例(AE)に対する固有の脆弱性に悩まされる
我々は、隠れた層上での活性化を分析して、AEの内部表現に光を当てた。
その結果、個々のAEsの活性化はテストセットの活性化と絡み合っていることが明らかとなった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks achieve remarkable performance in multiple fields.
However, after proper training they suffer from an inherent vulnerability
against adversarial examples (AEs). In this work we shed light on inner
representations of the AEs by analysing their activations on the hidden layers.
We test various types of AEs, each crafted using a specific norm constraint,
which affects their visual appearance and eventually their behavior in the
trained networks. Our results in image classification tasks (MNIST and
CIFAR-10) reveal qualitative differences between the individual types of AEs,
when comparing their proximity to the class-specific manifolds on the inner
representations. We propose two methods that can be used to compare the
distances to class-specific manifolds, regardless of the changing dimensions
throughout the network. Using these methods, we consistently confirm that some
of the adversarials do not necessarily leave the proximity of the manifold of
the correct class, not even in the last hidden layer of the neural network.
Next, using UMAP visualisation technique, we project the class activations to
2D space. The results indicate that the activations of the individual AEs are
entangled with the activations of the test set. This, however, does not hold
for a group of crafted inputs called the rubbish class. We also confirm the
entanglement of adversarials with the test set numerically using the soft
nearest neighbour loss.
- Abstract(参考訳): ディープニューラルネットワークは、複数の分野において顕著な性能を達成する。
しかし、適切な訓練の後、敵の例(AE)に対する固有の脆弱性に悩まされる。
この研究では、隠れた層上での活性化を分析することで、aesの内部表現に光を当てた。
我々は様々なタイプのaesをテストし、それぞれが特定の規範制約を用いて作成し、その視覚の外観と最終的には訓練されたネットワークにおける行動に影響を及ぼす。
画像分類タスク (MNIST, CIFAR-10) の結果, 内部表現上のクラス固有多様体との近接性を比較すると, 個々のAE間の質的差異が明らかになった。
ネットワーク全体の寸法の変化に関わらず,クラス固有の多様体との距離を比較するために使用できる2つの手法を提案する。
これらの手法を用いることで、ニューラルネットワークの最後の隠蔽層においても、逆数の一部が必ずしも正しいクラスの多様体の近傍に留まらないことを確実に確認する。
次に、UMAP可視化技術を用いて、クラスアクティベーションを2次元空間に投影する。
その結果,個々のAEの活性化はテストセットの活性化と絡み合っていることがわかった。
しかし、これはラッビッシュクラスと呼ばれる手作りの入力群には当てはまらない。
また, ソフト近接損失を用いて, 対向性の絡み合いを数値的に検証した。
関連論文リスト
- Multilevel Saliency-Guided Self-Supervised Learning for Image Anomaly
Detection [15.212031255539022]
異常検出(AD)はコンピュータビジョンの基本課題である。
そこで我々は,サリエンシガイダンスを活用して意味的手がかりを付加するCutSwapを提案する。
CutSwapは、2つの主流ADベンチマークデータセット上で最先端のADパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-11-30T08:03:53Z) - Data Representations' Study of Latent Image Manifolds [5.801621787540268]
画像分類のための最先端の訓練された畳み込みニューラルネットワークは、層に沿って特徴的な曲率プロファイルを持つことがわかった。
また,最後の2層間の曲率ギャップは,ネットワークの一般化能力と強く相関していることを示す。
論文 参考訳(メタデータ) (2023-05-31T10:49:16Z) - Be Your Own Neighborhood: Detecting Adversarial Example by the
Neighborhood Relations Built on Self-Supervised Learning [64.78972193105443]
本稿では,予測に有効な新しいAE検出フレームワークを提案する。
AEの異常な関係と拡張バージョンを区別して検出を行う。
表現を抽出し、ラベルを予測するために、既製の自己監視学習(SSL)モデルが使用される。
論文 参考訳(メタデータ) (2022-08-31T08:18:44Z) - Distance Learner: Incorporating Manifold Prior to Model Training [1.6752182911522522]
本稿では,最新のDeep Neural Networks (DNN) において,多様体仮説を先行として組み込む新しい手法である距離学習器を提案する。
分類において、距離学習者は最も近い予測されたクラス多様体に対応するクラスを選択する。
本手法は, 対向ロバスト性(対向ロバスト性)の課題において評価し, 標準分類器を大きなマージンで上回るだけでなく, 最先端の対向訓練によって訓練された分類器と同等に性能を発揮することを示した。
論文 参考訳(メタデータ) (2022-07-14T13:07:08Z) - Class-Specific Semantic Reconstruction for Open Set Recognition [101.24781422480406]
オープンセット認識により、ディープニューラルネットワーク(DNN)は未知のクラスのサンプルを識別できる。
本稿では,自動エンコーダ(AE)とプロトタイプ学習を統合したCSSR(Class-Specific Semantic Reconstruction)を提案する。
複数のデータセットで実験を行った結果,提案手法は閉集合認識と開集合認識の両方において優れた性能を発揮することがわかった。
論文 参考訳(メタデータ) (2022-07-05T16:25:34Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Revisiting Contrastive Methods for Unsupervised Learning of Visual
Representations [78.12377360145078]
対照的な自己教師型学習は、セグメンテーションやオブジェクト検出といった多くの下流タスクにおいて教師付き事前訓練よりも優れています。
本稿では,データセットのバイアスが既存手法にどのように影響するかを最初に検討する。
現在のコントラストアプローチは、(i)オブジェクト中心対シーン中心、(ii)一様対ロングテール、(iii)一般対ドメイン固有データセットなど、驚くほどうまく機能することを示す。
論文 参考訳(メタデータ) (2021-06-10T17:59:13Z) - Conditional Variational Capsule Network for Open Set Recognition [64.18600886936557]
オープンセット認識では、分類器はトレーニング時に未知の未知のクラスを検出する必要がある。
最近提案されたカプセルネットワークは、特に画像認識において、多くの分野で代替案を上回ることが示されている。
本提案では,訓練中,同じ既知のクラスのカプセルの特徴を,事前に定義されたガウス型に適合させることを推奨する。
論文 参考訳(メタデータ) (2021-04-19T09:39:30Z) - Connecting the Dots: Detecting Adversarial Perturbations Using Context
Inconsistency [25.039201331256372]
私たちは、トレーニング中のコンテキスト整合性ルールを学習し、テスト中の同じ違反をチェックするシステムで、Deep Neural Networkを強化します。
提案手法では,各オブジェクトクラス毎に自動エンコーダのセットを構築し,追加の対向摂動がコンテキスト整合規則に違反している場合,入力と出力の差分を出力するように適切に訓練する。
PASCAL VOCおよびMS COCOを用いた実験により,本手法は種々の敵攻撃を効果的に検出し,高いROC-AUC(ほとんどの場合0.95以上)を達成することが示された。
論文 参考訳(メタデータ) (2020-07-19T19:46:45Z) - Symbiotic Adversarial Learning for Attribute-based Person Search [86.7506832053208]
本稿では,共生学習の枠組みとして,共生学習の基盤に2つのGANを配置する。
具体的には、2種類の生成的敵ネットワークがトレーニングプロセスを通して協調的に学習する。
論文 参考訳(メタデータ) (2020-07-19T07:24:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。