論文の概要: Architectural Resilience to Foreground-and-Background Adversarial Noise
- arxiv url: http://arxiv.org/abs/2003.10045v2
- Date: Sun, 7 Jun 2020 05:28:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 23:58:32.914068
- Title: Architectural Resilience to Foreground-and-Background Adversarial Noise
- Title(参考訳): 前景と後景の雑音に対する建築的レジリエンス
- Authors: Carl Cheng, Evan Hu
- Abstract要約: 正常な画像の知覚不能な摂動の形でのアドリサイドアタックが広く研究されている。
本稿では,異なるネットワークアーキテクチャのレジリエンスとロバスト性を検討するために,画像の異なるモデルに依存しないベンチマーク摂動を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks in the form of imperceptible perturbations of normal
images have been extensively studied, and for every new defense methodology
created, multiple adversarial attacks are found to counteract it. In
particular, a popular style of attack, exemplified in recent years by DeepFool
and Carlini-Wagner, relies solely on white-box scenarios in which full access
to the predictive model and its weights are required. In this work, we instead
propose distinct model-agnostic benchmark perturbations of images in order to
investigate the resilience and robustness of different network architectures.
Results empirically determine that increasing depth within most types of
Convolutional Neural Networks typically improves model resilience towards
general attacks, with improvement steadily decreasing as the model becomes
deeper. Additionally, we find that a notable difference in adversarial
robustness exists between residual architectures with skip connections and
non-residual architectures of similar complexity. Our findings provide
direction for future understanding of residual connections and depth on network
robustness.
- Abstract(参考訳): 通常の画像の知覚不能な摂動の形での敵攻撃は広範囲に研究され、新しい防衛手法が作られるごとに、複数の敵攻撃がそれに対抗することが判明した。
特に、近年DeepFoolとCarini-Wagnerによって実証された一般的な攻撃スタイルは、予測モデルとその重みへの完全なアクセスが必要なホワイトボックスシナリオにのみ依存している。
本研究では,異なるネットワークアーキテクチャのレジリエンスとロバスト性を検討するため,画像のモデル非依存なベンチマーク摂動を提案する。
その結果、多くのタイプの畳み込みニューラルネットワークにおける深さの増加は、一般的に一般的な攻撃に対するモデルのレジリエンスを向上させ、モデルがより深くなるにつれて改善が着実に減少する。
さらに,スキップ接続を持つ残差アーキテクチャと類似した複雑性を持つ非再現アーキテクチャとの間には,敵対的ロバスト性に顕著な違いがあることが判明した。
本研究は,ネットワークのロバスト性に対する残差接続と深さの今後の理解の方向性を提供する。
関連論文リスト
- Towards Evaluating the Robustness of Visual State Space Models [63.14954591606638]
視覚状態空間モデル(VSSM)は視覚知覚タスクにおいて顕著な性能を示した。
しかし、自然と敵対的な摂動の下での頑丈さは依然として重要な懸念事項である。
様々な摂動シナリオ下でのVSSMの頑健さを総合的に評価する。
論文 参考訳(メタデータ) (2024-06-13T17:59:44Z) - Meta Adversarial Perturbations [66.43754467275967]
メタ逆境摂動(MAP)の存在を示す。
MAPは1段階の上昇勾配更新によって更新された後、自然画像を高い確率で誤分類する。
これらの摂動は画像に依存しないだけでなく、モデルに依存しないものであり、単一の摂動は見えないデータポイントと異なるニューラルネットワークアーキテクチャにまたがってうまく一般化される。
論文 参考訳(メタデータ) (2021-11-19T16:01:45Z) - Defensive Tensorization [113.96183766922393]
本稿では,ネットワークの遅延高次分解を利用した対角防御手法であるテンソル防御手法を提案する。
我々は,標準画像分類ベンチマークにおけるアプローチの有効性を実証的に実証した。
我々は,音声タスクとバイナリネットワークを考慮し,ドメイン間のアプローチと低精度アーキテクチャの汎用性を検証した。
論文 参考訳(メタデータ) (2021-10-26T17:00:16Z) - Pruning in the Face of Adversaries [0.0]
ニューラルネットワークのプルーニングがL-0,L-2,L-infinity攻撃に対する対向的ロバスト性に及ぼす影響を評価する。
その結果,ニューラルネットワークのプルーニングと対向ロバスト性は相互に排他的ではないことが確認された。
分析を敵のシナリオに付加的な仮定を取り入れた状況にまで拡張し、状況によって異なる戦略が最適であることを示す。
論文 参考訳(メタデータ) (2021-08-19T09:06:16Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Multi-objective Search of Robust Neural Architectures against Multiple
Types of Adversarial Attacks [18.681859032630374]
深層学習モデルは、人間には受け入れられない敵の例に弱い。
機械学習モデルがどのタイプの攻撃に苦しむかを事前に予測することは事実上不可能である。
本稿では,多目的進化アルゴリズムを用いた5種類の既知の敵攻撃に対して頑健な深層ニューラルネットワークの探索を提案する。
論文 参考訳(メタデータ) (2021-01-16T19:38:16Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - Interpolation between Residual and Non-Residual Networks [24.690238357686134]
ダンピング項を追加することで,新しいODEモデルを提案する。
提案モデルでは係数を調整してResNetとCNNの両方を復元可能であることを示す。
複数の画像分類ベンチマーク実験により,提案手法はResNetとResNeXtの精度を大幅に向上することが示された。
論文 参考訳(メタデータ) (2020-06-10T09:36:38Z) - Bridging Mode Connectivity in Loss Landscapes and Adversarial Robustness [97.67477497115163]
我々は、モード接続を用いて、ディープニューラルネットワークの対角的堅牢性を研究する。
実験では、異なるネットワークアーキテクチャやデータセットに適用される様々な種類の敵攻撃について取り上げる。
以上の結果から,モード接続は,敵の強靭性を評価・改善するための総合的なツールであり,実用的な手段であることが示唆された。
論文 参考訳(メタデータ) (2020-04-30T19:12:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。