論文の概要: On Universalized Adversarial and Invariant Perturbations
- arxiv url: http://arxiv.org/abs/2006.04449v1
- Date: Mon, 8 Jun 2020 10:08:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 00:05:16.745563
- Title: On Universalized Adversarial and Invariant Perturbations
- Title(参考訳): 普遍化逆および不変摂動について
- Authors: Sandesh Kamath, Amit Deshpande, K V Subrahmanyam
- Abstract要約: 本研究では, SVD-Universal による畳み込みニューラルネットワーク (GCNN) の有効性について検討した。
普遍不変方向を導入し,SVD-Universal が生成する普遍逆方向との関係について検討する。
- 参考スコア(独自算出の注目度): 5.406299794900294
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Convolutional neural networks or standard CNNs (StdCNNs) are
translation-equivariant models that achieve translation invariance when trained
on data augmented with sufficient translations. Recent work on equivariant
models for a given group of transformations (e.g., rotations) has lead to
group-equivariant convolutional neural networks (GCNNs). GCNNs trained on data
augmented with sufficient rotations achieve rotation invariance. Recent work by
authors arXiv:2002.11318 studies a trade-off between invariance and robustness
to adversarial attacks. In another related work arXiv:2005.08632, given any
model and any input-dependent attack that satisfies a certain spectral
property, the authors propose a universalization technique called SVD-Universal
to produce a universal adversarial perturbation by looking at very few test
examples. In this paper, we study the effectiveness of SVD-Universal on GCNNs
as they gain rotation invariance through higher degree of training
augmentation. We empirically observe that as GCNNs gain rotation invariance
through training augmented with larger rotations, the fooling rate of
SVD-Universal gets better. To understand this phenomenon, we introduce
universal invariant directions and study their relation to the universal
adversarial direction produced by SVD-Universal.
- Abstract(参考訳): 畳み込みニューラルネットワーク(英: Convolutional Neural Network)または標準CNN(StdCNN)は、十分な翻訳で強化されたデータに基づいてトレーニングされたときに翻訳不変性を達成する翻訳不変モデルである。
与えられた変換群(例えば回転)の同変モデルに関する最近の研究は、グループ同変畳み込みニューラルネットワーク(gcnn)へと繋がる。
十分な回転で強化されたデータに基づいてトレーニングされたGCNNは、回転不変性を実現する。
arXiv:2002.11318の著者による最近の研究は、敵攻撃に対する不変性と堅牢性の間のトレードオフを研究する。
別の関連する研究 arXiv:2005.08632 において、あるスペクトル特性を満たす任意のモデルと入力依存攻撃が与えられた場合、著者はSVD-Universal と呼ばれる普遍化手法を提案し、ごく少数の試験例を見て、普遍的対向摂動を生成する。
本稿では,GCNNにおけるSVD-Universalの有効性について検討する。
実験により,GCNNの回転不変性が大きくなるにつれて,SVD-Universalの不正化率が向上することがわかった。
この現象を理解するために、普遍不変方向を導入し、SVD-Universalによって生成される普遍逆方向との関係について研究する。
関連論文リスト
- Boosting Sample Efficiency and Generalization in Multi-agent Reinforcement Learning via Equivariance [34.322201578399394]
MARL(Multi-Agent Reinforcement Learning)は、サンプルの非効率性と一般化の欠如に苦慮する。
探索型等変グラフニューラルネットワーク(E2GN2)を提案する。
E2GN2は, 試料効率, 最終報酬収束率, 標準GNNよりも2x-5倍向上したことを示す。
論文 参考訳(メタデータ) (2024-10-03T15:25:37Z) - Generalization of Graph Neural Networks is Robust to Model Mismatch [84.01980526069075]
グラフニューラルネットワーク(GNN)は、その一般化能力によってサポートされている様々なタスクにおいて、その効果を実証している。
本稿では,多様体モデルから生成される幾何グラフで動作するGNNについて検討する。
本稿では,そのようなモデルミスマッチの存在下でのGNN一般化の堅牢性を明らかにする。
論文 参考訳(メタデータ) (2024-08-25T16:00:44Z) - Revisiting Data Augmentation for Rotational Invariance in Convolutional
Neural Networks [0.29127054707887967]
画像分類のためのCNNにおける回転不変性について検討する。
実験により、データ拡張だけで訓練されたネットワークは、通常の非回転の場合と同様に、回転した画像の分類がほぼ可能であることが示された。
論文 参考訳(メタデータ) (2023-10-12T15:53:24Z) - Deep Neural Networks with Efficient Guaranteed Invariances [77.99182201815763]
我々は、性能改善の問題、特にディープニューラルネットワークのサンプル複雑性に対処する。
群同変畳み込みは同変表現を得るための一般的なアプローチである。
本稿では,各ストリームが異なる変換に不変なマルチストリームアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-02T20:44:45Z) - Learning Invariant Representations for Equivariant Neural Networks Using
Orthogonal Moments [9.680414207552722]
標準畳み込みニューラルネットワーク(CNN)の畳み込み層は、翻訳と等価である。
近年,従来のCNNの層を同変畳み込み,プーリング,バッチ正規化に置き換えた新しいCNNのクラスが提案されている。
論文 参考訳(メタデータ) (2022-09-22T11:48:39Z) - Regularising for invariance to data augmentation improves supervised
learning [82.85692486314949]
入力毎に複数の拡張を使用すれば、一般化が向上することを示す。
本稿では,個々のモデル予測のレベルにおいて,この不変性を助長する明示的な正規化手法を提案する。
論文 参考訳(メタデータ) (2022-03-07T11:25:45Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - Revisiting Transformation Invariant Geometric Deep Learning: Are Initial
Representations All You Need? [80.86819657126041]
変換不変および距離保存初期表現は変換不変性を達成するのに十分であることを示す。
具体的には、多次元スケーリングを変更することで、変換不変かつ距離保存された初期点表現を実現する。
我々は、TinvNNが変換不変性を厳密に保証し、既存のニューラルネットワークと組み合わせられるほど汎用的で柔軟なことを証明した。
論文 参考訳(メタデータ) (2021-12-23T03:52:33Z) - Learning Invariances in Neural Networks [51.20867785006147]
ネットワークパラメータや拡張パラメータに関して,拡張性よりも分布をパラメータ化し,トレーニング損失を同時に最適化する方法を示す。
画像分類,回帰,セグメンテーション,分子特性予測における不均一性の正確なセットと範囲を,拡張の広い空間から復元することができる。
論文 参考訳(メタデータ) (2020-10-22T17:18:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。