論文の概要: Group-wise Inhibition based Feature Regularization for Robust
Classification
- arxiv url: http://arxiv.org/abs/2103.02152v1
- Date: Wed, 3 Mar 2021 03:19:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-04 15:11:33.152450
- Title: Group-wise Inhibition based Feature Regularization for Robust
Classification
- Title(参考訳): グループ的阻害に基づくロバスト分類の特徴正規化
- Authors: Haozhe Liu, Haoqian Wu, Weicheng Xie, Feng Liu and Linlin Shen
- Abstract要約: バニラ畳み込みニューラルネットワーク(CNN)は、小さなバリエーションの画像に対して脆弱です。
グループワイド阻害によるバニラCNNの活性化値を動的に抑制することを提案する。
また,提案手法は,敵の訓練など他の防御パラダイムを補完することを示す。
- 参考スコア(独自算出の注目度): 21.637459331646088
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The vanilla convolutional neural network (CNN) is vulnerable to images with
small variations (e.g. corrupted and adversarial samples). One of the possible
reasons is that CNN pays more attention to the most discriminative regions, but
ignores the auxiliary features, leading to the lack of feature diversity. In
our method , we propose to dynamically suppress significant activation values
of vanilla CNN by group-wise inhibition, but not fix or randomly handle them
when training. Then, the feature maps with different activation distribution
are processed separately due to the independence of features. Vanilla CNN is
finally guided to learn more rich discriminative features hierarchically for
robust classification according to proposed regularization. The proposed method
is able to achieve a significant gain of robustness over 15% comparing with the
state-of-the-art. We also show that the proposed regularization method
complements other defense paradigms, such as adversarial training, to further
improve the robustness.
- Abstract(参考訳): バニラ畳み込みニューラルネットワーク(CNN)は、小さなバリエーション(例えば)の画像に対して脆弱である。
腐敗し 敵対的なサンプル)
考えられる理由の1つは、CNNが最も差別的な地域にもっと注意を払っていますが、補助機能を無視し、機能の多様性の欠如につながります。
本手法では,バニラCNNの有効活性化値をグループ的抑制によって動的に抑制するが,トレーニング時に修正やランダムに扱わない。
そして、特徴の独立性により、アクティベーション分布が異なる特徴マップを別々に処理する。
Vanilla CNNは最終的に、提案された正規化に従って堅牢な分類のために、よりリッチな識別機能を階層的に学ぶように導かれる。
提案手法は,最先端技術と比較して15%以上のロバスト性を実現することができる。
また, 本提案手法は, 対人訓練など他の防御パラダイムを補完し, 堅牢性の向上を図っている。
関連論文リスト
- Improving Interpretability and Accuracy in Neuro-Symbolic Rule Extraction Using Class-Specific Sparse Filters [5.1690347717311855]
CNNトレーニング中にクラス固有のフィルタバイナライズを可能にするスペーサ損失関数を提案する。
我々は新しいベンチマークを設定し、9%の精度向上と53%のルールセットサイズを平均で達成した。
このことは、ブラックボックスCNNの代替として、解釈可能なニューロシンボリックモデルの可能性を強調している。
論文 参考訳(メタデータ) (2025-01-28T03:22:23Z) - MOREL: Enhancing Adversarial Robustness through Multi-Objective Representation Learning [1.534667887016089]
ディープニューラルネットワーク(DNN)は、わずかに敵対的な摂動に対して脆弱である。
トレーニング中の強力な特徴表現学習は、元のモデルの堅牢性を大幅に向上させることができることを示す。
本稿では,多目的特徴表現学習手法であるMORELを提案する。
論文 参考訳(メタデータ) (2024-10-02T16:05:03Z) - Clustering Effect of (Linearized) Adversarial Robust Models [60.25668525218051]
本稿では, 敵の強靭性に対する新たな理解を提案し, ドメイン適応や頑健性向上といったタスクに適用する。
提案したクラスタリング戦略の合理性と優越性を実験的に評価した。
論文 参考訳(メタデータ) (2021-11-25T05:51:03Z) - An Orthogonal Classifier for Improving the Adversarial Robustness of
Neural Networks [21.13588742648554]
近年の研究では、分類層に特定の変更を加えることで、ニューラルネットワークの堅牢性を向上させることが示されている。
我々は、成分が同じ大きさの高密度直交重み行列を明示的に構築し、新しいロバストな分類器を生み出す。
我々の方法は、多くの最先端の防衛アプローチに対して効率的で競争力がある。
論文 参考訳(メタデータ) (2021-05-19T13:12:14Z) - CIFS: Improving Adversarial Robustness of CNNs via Channel-wise
Importance-based Feature Selection [186.34889055196925]
本稿では,チャネルワイドアクティベーションの観点から,CNNの対角的ロバスト性について検討する。
我々は,敵対的学習(AT)がCNNのチャネルワイドなアクティベーションと自然的データとを一致させることで,CNNの信頼性を高めることを観察した。
我々は、新しいメカニズム、すなわち、アンダーラインChannel-wise Underline Importance-based UnderlineFeature UnderlineSelection (CIFS)を導入する。
論文 参考訳(メタデータ) (2021-02-10T08:16:43Z) - DICE: Diversity in Deep Ensembles via Conditional Redundancy Adversarial
Estimation [109.11580756757611]
メンバー間の多様性のおかげで、ディープアンサンブルは単一のネットワークよりもパフォーマンスが良い。
最近のアプローチでは、多様性を高めるための予測を規則化していますが、個々のメンバーのパフォーマンスも大幅に減少します。
DICEと呼ばれる新しいトレーニング基準を導入し、特徴間の素早い相関を減らして多様性を高める。
論文 参考訳(メタデータ) (2021-01-14T10:53:26Z) - DVERGE: Diversifying Vulnerabilities for Enhanced Robust Generation of
Ensembles [20.46399318111058]
敵攻撃は、小さな摂動でCNNモデルを誤解させる可能性があるため、同じデータセットでトレーニングされた異なるモデル間で効果的に転送することができる。
非破壊的特徴を蒸留することにより,各サブモデルの逆脆弱性を分離するDVERGEを提案する。
新たな多様性基準とトレーニング手順により、DVERGEは転送攻撃に対して高い堅牢性を達成することができる。
論文 参考訳(メタデータ) (2020-09-30T14:57:35Z) - ACDC: Weight Sharing in Atom-Coefficient Decomposed Convolution [57.635467829558664]
我々は,CNNにおいて,畳み込みカーネル間の構造正則化を導入する。
我々はCNNがパラメータや計算量を劇的に減らして性能を維持していることを示す。
論文 参考訳(メタデータ) (2020-09-04T20:41:47Z) - Enhancing Intrinsic Adversarial Robustness via Feature Pyramid Decoder [11.701729403940798]
本稿では,ニューラルネットワークの本質的堅牢性を高めるための攻撃非依存型防御フレームワークを提案する。
私たちのフレームワークは、すべてのブロックベースの畳み込みニューラルネットワーク(CNN)に適用されます。
論文 参考訳(メタデータ) (2020-05-06T01:40:26Z) - Regularizing Class-wise Predictions via Self-knowledge Distillation [80.76254453115766]
類似サンプル間の予測分布を解析する新しい正規化法を提案する。
これにより、単一のネットワークの暗黒知識(すなわち誤った予測に関する知識)を規則化する。
画像分類タスクにおける実験結果から, 単純だが強力な手法が一般化能力を大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-03-31T06:03:51Z) - Hold me tight! Influence of discriminative features on deep network
boundaries [63.627760598441796]
本稿では,データセットの特徴と,サンプルから決定境界までの距離を関連付ける新しい視点を提案する。
これにより、トレーニングサンプルの位置を慎重に調整し、大規模ビジョンデータセットでトレーニングされたCNNの境界における誘発された変化を測定することができる。
論文 参考訳(メタデータ) (2020-02-15T09:29:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。