論文の概要: On the Effect of Pruning on Adversarial Robustness
- arxiv url: http://arxiv.org/abs/2108.04890v1
- Date: Tue, 10 Aug 2021 19:30:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-12 21:03:23.452711
- Title: On the Effect of Pruning on Adversarial Robustness
- Title(参考訳): プルーニングが対向ロバスト性に及ぼす影響について
- Authors: Artur Jordao and Helio Pedrini
- Abstract要約: プルーニングは、深層畳み込みネットワークの計算コストを削減するためのよく知られたメカニズムである。
プルーニングは敵画像に対するロバスト性を高めることを示す。
このことは、敵画像に対する新しい防御機構としてプルーニングの可能性を示唆している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pruning is a well-known mechanism for reducing the computational cost of deep
convolutional networks. However, studies have shown the potential of pruning as
a form of regularization, which reduces overfitting and improves
generalization. We demonstrate that this family of strategies provides
additional benefits beyond computational performance and generalization. Our
analyses reveal that pruning structures (filters and/or layers) from
convolutional networks increase not only generalization but also robustness to
adversarial images (natural images with content modified). Such achievements
are possible since pruning reduces network capacity and provides
regularization, which have been proven effective tools against adversarial
images. In contrast to promising defense mechanisms that require training with
adversarial images and careful regularization, we show that pruning obtains
competitive results considering only natural images (e.g., the standard and
low-cost training). We confirm these findings on several adversarial attacks
and architectures; thus suggesting the potential of pruning as a novel defense
mechanism against adversarial images.
- Abstract(参考訳): プルーニングは、深層畳み込みネットワークの計算コストを削減するためのよく知られたメカニズムである。
しかし、研究はプラニングを正規化の一形態として示しており、過剰フィッティングを減少させ、一般化を改善する。
我々は,この戦略群が計算性能と一般化以上の利点をもたらすことを実証する。
解析の結果,畳み込みネットワークからのプルーニング構造(フィルタ層)は,一般化だけでなく,逆画像に対する堅牢性も向上することがわかった。
このような成果は、プレニングがネットワーク容量を削減し、敵画像に対して有効なツールである正規化を提供するため可能である。
敵画像によるトレーニングと慎重な正規化を必要とする有望な防御機構とは対照的に,プルーニングは自然画像のみを考慮した競争結果を得る(例えば,標準および低コストのトレーニング)。
これらの知見をいくつかの敵の攻撃やアーキテクチャ上で確認し,敵画像に対する新たな防御機構としてのプルーニングの可能性を示した。
関連論文リスト
- Beyond Pruning Criteria: The Dominant Role of Fine-Tuning and Adaptive Ratios in Neural Network Robustness [7.742297876120561]
ディープニューラルネットワーク(DNN)は、画像認識や自然言語処理といったタスクに優れています。
従来のプルーニング手法は、微妙な摂動に耐えるネットワークの能力を損なう。
本稿では,プライドネットワークの性能決定要因として,従来の重み付け重み付けの重視に挑戦する。
論文 参考訳(メタデータ) (2024-10-19T18:35:52Z) - Samples on Thin Ice: Re-Evaluating Adversarial Pruning of Neural
Networks [15.55615069378845]
近年の研究では、逆算法はスパースネットワークを生成できるが、逆算例に対する堅牢性は維持できると主張している。
本研究は,まず,3つの最先端逆算法を再評価し,その頑健さが実際に過大評価されたことを示す。
我々は,この直感が今後の作業において,より効果的な対向的プルーニング手法の設計につながる可能性について論じる。
論文 参考訳(メタデータ) (2023-10-12T06:50:43Z) - Dual Adversarial Resilience for Collaborating Robust Underwater Image
Enhancement and Perception [54.672052775549]
本研究では,水中画像の強調と検出を行うために,CARNetと呼ばれる協調的対向レジリエンスネットワークを導入する。
本稿では,ネットワークが様々な種類の攻撃を識別・除去できるように,視覚駆動型と知覚駆動型の両方による同時攻撃訓練戦略を提案する。
実験により,提案手法は画像の高画質化を図り,最先端の手法よりも平均6.71%高い検出精度が得られた。
論文 参考訳(メタデータ) (2023-09-03T06:52:05Z) - PAIF: Perception-Aware Infrared-Visible Image Fusion for Attack-Tolerant
Semantic Segmentation [50.556961575275345]
対向シーンにおけるセグメンテーションの堅牢性を促進するための認識認識型融合フレームワークを提案する。
我々は,先進の競争相手に比べて15.3% mIOUの利得で,ロバスト性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-08-08T01:55:44Z) - Error Diffusion Halftoning Against Adversarial Examples [85.11649974840758]
敵対的な例には、深いニューラルネットワークを誤った予測にだますことができる慎重に作られた摂動が含まれます。
誤り拡散のハーフトン化に基づく新しい画像変換防御を提案し、逆転の例に対して防御するための逆転訓練と組み合わせます。
論文 参考訳(メタデータ) (2021-01-23T07:55:02Z) - Face Anti-Spoofing Via Disentangled Representation Learning [90.90512800361742]
顔認識システムのセキュリティには、顔の偽造が不可欠だ。
本稿では,画像から生意気な特徴やコンテンツの特徴を乱す顔のアンチ・スプーフィングの新たな視点を提案する。
論文 参考訳(メタデータ) (2020-08-19T03:54:23Z) - AdvFoolGen: Creating Persistent Troubles for Deep Classifiers [17.709146615433458]
本稿では,自然画像と同じ特徴空間から攻撃画像を生成するAdvFoolGenというブラックボックス攻撃を提案する。
我々は、最先端の防衛技術に直面する攻撃の有効性と堅牢性を実証する。
論文 参考訳(メタデータ) (2020-07-20T21:27:41Z) - Trace-Norm Adversarial Examples [24.091216490378567]
逆探索を異なるノルムで制限すると、異なる構成の逆の例が得られる。
構造的対向摂動は、その$l_p$カウンターパートよりも大きな歪みを許容する。
それらは、(局所的な)曖昧さのように、敵の摂動の発生をある程度制御することができる。
論文 参考訳(メタデータ) (2020-07-02T13:37:19Z) - Proper Network Interpretability Helps Adversarial Robustness in
Classification [91.39031895064223]
本稿では,解釈の適切な測定を行うことで,予測回避攻撃が解釈の不一致を引き起こすのを防ぐことは困難であることを示す。
我々は,頑健な解釈の促進にのみ焦点をあてて,解釈可能性に配慮した防御手法を開発した。
その結果,我々の防衛力は,強靭な分類と頑健な解釈の両方を達成し,大規模な摂動攻撃に対する最先端の対人訓練方法よりも優れていた。
論文 参考訳(メタデータ) (2020-06-26T01:31:31Z) - Towards Achieving Adversarial Robustness by Enforcing Feature
Consistency Across Bit Planes [51.31334977346847]
我々は、高ビット平面の情報に基づいて粗い印象を形成するためにネットワークを訓練し、低ビット平面を用いて予測を洗練させる。
異なる量子化画像間で学習した表現に一貫性を付与することにより、ネットワークの対角的ロバスト性が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-04-01T09:31:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。