論文の概要: Linking average- and worst-case perturbation robustness via class
selectivity and dimensionality
- arxiv url: http://arxiv.org/abs/2010.07693v2
- Date: Mon, 29 Mar 2021 22:49:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 12:19:09.877555
- Title: Linking average- and worst-case perturbation robustness via class
selectivity and dimensionality
- Title(参考訳): クラス選択性および次元性による平均および最悪ケース摂動ロバスト性リンク
- Authors: Matthew L. Leavitt, Ari Morcos
- Abstract要約: クラス選択性は入力データの摂動に頑健性(または脆弱性)を与えるかを検討する。
階層選択度が低いように正規化されたネットワークは、平均ケース摂動よりも頑健であることがわかった。
対照的に、クラス選択性は、複数のタイプの最悪の摂動に対して堅牢性を高める。
- 参考スコア(独自算出の注目度): 7.360807642941714
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Representational sparsity is known to affect robustness to input
perturbations in deep neural networks (DNNs), but less is known about how the
semantic content of representations affects robustness. Class selectivity-the
variability of a unit's responses across data classes or dimensions-is one way
of quantifying the sparsity of semantic representations. Given recent evidence
that class selectivity may not be necessary for, and in some cases can impair
generalization, we investigate whether it also confers robustness (or
vulnerability) to perturbations of input data. We found that networks
regularized to have lower levels of class selectivity were more robust to
average-case (naturalistic) perturbations, while networks with higher class
selectivity are more vulnerable. In contrast, class selectivity increases
robustness to multiple types of worst-case (i.e. white box adversarial)
perturbations, suggesting that while decreasing class selectivity is helpful
for average-case perturbations, it is harmful for worst-case perturbations. To
explain this difference, we studied the dimensionality of the networks'
representations: we found that the dimensionality of early-layer
representations is inversely proportional to a network's class selectivity, and
that adversarial samples cause a larger increase in early-layer dimensionality
than corrupted samples. Furthermore, the input-unit gradient is more variable
across samples and units in high-selectivity networks compared to
low-selectivity networks. These results lead to the conclusion that units
participate more consistently in low-selectivity regimes compared to
high-selectivity regimes, effectively creating a larger attack surface and
hence vulnerability to worst-case perturbations.
- Abstract(参考訳): 表現の空間性は、ディープニューラルネットワーク(DNN)の入力摂動にロバスト性に影響を与えることが知られているが、表現の意味的内容がロバスト性に与える影響についてはあまり知られていない。
クラス選択性 - データクラスや次元にまたがるユニットの応答の変動性 - 意味表現の空間性を定量化する方法のひとつです。
クラス選択性が必要ないという最近の証拠を踏まえ、場合によっては一般化を損なう可能性があり、入力データの摂動に対して堅牢性(または脆弱性)も与えるかどうかを考察する。
その結果、クラス選択率の低いネットワークは平均ケース(自然)摂動に対してより堅牢であり、クラス選択率の高いネットワークはより脆弱であることがわかった。
対照的に、クラス選択性は複数の最悪のケース(例えばホワイトボックス・アドバーサリー)の摂動に対して堅牢性を高め、クラス選択性が平均的なケースの摂動に有用である一方で、最悪のケースの摂動には有害であることを示唆している。
この違いを説明するために,ネットワークの表現の次元性について検討した。初期層表現の次元性はネットワークのクラス選択性に逆比例し,逆のサンプルは腐敗したサンプルよりも初期層の寸法が大きくなることを見出した。
さらに、入力単位勾配は、低選択性ネットワークと比較して、高選択性ネットワークのサンプルとユニット間でより可変である。
これらの結果から, 高選択性体制と比較して, ユニットは低選択性体制に一貫して参加し, 攻撃面を効果的に形成し, 最悪の場合の摂動の脆弱性を生じさせるという結論に至った。
関連論文リスト
- Evaluating the Robustness of Deep-Learning Algorithm-Selection Models by Evolving Adversarial Instances [0.16874375111244325]
ディープ畳み込みネットワーク(DNN)は、ニューラルネットワークドメインにおけるアルゴリズム選択の実行にますます利用されている。
逆のサンプルは、データセットによって元のインスタンスの最大56%から生成される。
進化的アルゴリズム(EA)を用いて、2つの既存のベンチマークからオンラインビンパッキングのためのインスタンスの摂動を見つけ、トレーニングされたDRNを誤分類させます。
論文 参考訳(メタデータ) (2024-06-24T12:48:44Z) - The Double-Edged Sword of Implicit Bias: Generalization vs. Robustness
in ReLU Networks [64.12052498909105]
本稿では,ReLUネットワークにおける勾配流の暗黙的バイアスが一般化と対角的ロバスト性に与える影響について検討する。
2層ReLUネットワークでは、勾配流は一般化された解に偏りがあるが、敵の例には非常に弱い。
論文 参考訳(メタデータ) (2023-03-02T18:14:35Z) - Adversarial training with informed data selection [53.19381941131439]
アドリアリトレーニングは、これらの悪意のある攻撃からネットワークを守るための最も効率的なソリューションである。
本研究では,ミニバッチ学習に適用すべきデータ選択戦略を提案する。
シミュレーションの結果,ロバスト性および標準精度に関して良好な妥協が得られることがわかった。
論文 参考訳(メタデータ) (2023-01-07T12:09:50Z) - Efficient and Robust Classification for Sparse Attacks [34.48667992227529]
我々は、画像認識、自然言語処理、マルウェア検出の領域において効果的な攻撃として示されてきた$ell$-normで束縛された摂動を考える。
我々は,「トランケーション」と「アドリアル・トレーニング」を組み合わせた新しい防衛手法を提案する。
得られた洞察に触発され、これらのコンポーネントをニューラルネットワーク分類器に拡張する。
論文 参考訳(メタデータ) (2022-01-23T21:18:17Z) - SLA$^2$P: Self-supervised Anomaly Detection with Adversarial
Perturbation [77.71161225100927]
異常検出は、機械学習の基本的な問題であるが、難しい問題である。
本稿では,非教師付き異常検出のための新しい強力なフレームワークであるSLA$2$Pを提案する。
論文 参考訳(メタデータ) (2021-11-25T03:53:43Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - Analyzing Overfitting under Class Imbalance in Neural Networks for Image
Segmentation [19.259574003403998]
画像分割では、ニューラルネットワークは小さな構造物の前景サンプルに過剰に適合する可能性がある。
本研究では,ネットワークの動作を検査することにより,クラス不均衡下でのオーバーフィッティング問題に対する新たな知見を提供する。
論文 参考訳(メタデータ) (2021-02-20T14:57:58Z) - Minimax Active Learning [61.729667575374606]
アクティブラーニングは、人間のアノテーションによってラベル付けされる最も代表的なサンプルをクエリすることによって、ラベル効率の高いアルゴリズムを開発することを目指している。
現在のアクティブラーニング技術は、最も不確実なサンプルを選択するためにモデルの不確実性に頼るか、クラスタリングを使うか、最も多様なラベルのないサンプルを選択するために再構築する。
我々は,不確実性と多様性を両立させる半教師付きミニマックスエントロピーに基づく能動学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-12-18T19:03:40Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - On the relationship between class selectivity, dimensionality, and
robustness [25.48362370177062]
クラス選択性は入力データの摂動に頑健性(または脆弱性)を与えるかを検討する。
クラス選択率の平均は、自然主義的な腐敗に対する脆弱性を予測する。
その結果、クラス選択性は、複数の種類の勾配に基づく敵攻撃に対して堅牢性を高めることが判明した。
論文 参考訳(メタデータ) (2020-07-08T21:24:45Z) - Selectivity considered harmful: evaluating the causal impact of class
selectivity in DNNs [7.360807642941714]
ネットワーク機能に対するクラス選択率の因果的影響を,クラス選択率に対して直接的あるいは正則化することにより検討する。
この正規化器を使用して、畳み込みニューラルネットワークのユニット間のクラス選択率を削減することで、Tiny ImageNetでトレーニングされたResNet18では、テスト精度が2%以上向上した。
CIFAR10でトレーニングされたResNet20では、テスト精度に影響を与えずに2.5の係数でクラス選択率を削減でき、テスト精度をわずか(sim$2%)下げるだけで、ほぼゼロに削減できる。
論文 参考訳(メタデータ) (2020-03-03T00:22:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。