論文の概要: On the interplay of adversarial robustness and architecture components:
patches, convolution and attention
- arxiv url: http://arxiv.org/abs/2209.06953v1
- Date: Wed, 14 Sep 2022 22:02:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-16 12:16:04.779067
- Title: On the interplay of adversarial robustness and architecture components:
patches, convolution and attention
- Title(参考訳): 敵対的ロバスト性とアーキテクチャコンポーネントの相互作用について:パッチ,畳み込み,注意
- Authors: Francesco Croce, Matthias Hein
- Abstract要約: 本研究は,学習した特徴の解釈可能性と,未知の脅威モデルに対する頑健性に及ぼす対人訓練の効果について検討する。
ResNetからConvNeXtへのアブレーションにより、キーとなるアーキテクチャ上の変更により、約10%高い$ell_infty$-robustnessが実現した。
- 参考スコア(独自算出の注目度): 65.20660287833537
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years novel architecture components for image classification have
been developed, starting with attention and patches used in transformers. While
prior works have analyzed the influence of some aspects of architecture
components on the robustness to adversarial attacks, in particular for vision
transformers, the understanding of the main factors is still limited. We
compare several (non)-robust classifiers with different architectures and study
their properties, including the effect of adversarial training on the
interpretability of the learnt features and robustness to unseen threat models.
An ablation from ResNet to ConvNeXt reveals key architectural changes leading
to almost $10\%$ higher $\ell_\infty$-robustness.
- Abstract(参考訳): 近年、画像分類のための新しいアーキテクチャコンポーネントが開発され、まずはトランスフォーマの注意とパッチが使われている。
先行研究は、アーキテクチャコンポーネントのいくつかの側面が敵の攻撃に対する堅牢性、特に視覚トランスフォーマーに与えた影響を分析しているが、主要な要因の理解はまだ限られている。
我々は、異なるアーキテクチャを持ついくつかの(非)ロバスト分類器を比較し、学習した特徴の解釈可能性に対する敵対的訓練の効果や、見当たらない脅威モデルに対する堅牢性など、それらの特性について研究する。
ResNetからConvNeXtへのアブレーションにより、キーとなるアーキテクチャ上の変更により、約10\%の高額な$\ell_\infty$-robustnessが実現した。
関連論文リスト
- Learning Correlation Structures for Vision Transformers [93.22434535223587]
構造自己注意(StructSA)と呼ばれる新しい注意機構を導入する。
我々は、畳み込みによるキー-クエリ相関の時空間構造を認識して注意マップを生成する。
これは、シーンレイアウト、オブジェクトの動き、オブジェクト間の関係など、画像やビデオのリッチな構造パターンを効果的に活用する。
論文 参考訳(メタデータ) (2024-04-05T07:13:28Z) - RBFormer: Improve Adversarial Robustness of Transformer by Robust Bias [18.705151702198854]
強靭性を考慮に入れた敵の例の導入は、十分に確立された畳み込みに基づく構造の性能に深く、有害な影響を及ぼした。
本稿では,このような脆弱性を軽減するために合理的な構造設計手法を用いる。
本稿では,Robust Bias Transformer-based Structure (RBFormer) という新しい構造を導入する。
論文 参考訳(メタデータ) (2023-09-23T03:55:51Z) - PAIF: Perception-Aware Infrared-Visible Image Fusion for Attack-Tolerant
Semantic Segmentation [50.556961575275345]
対向シーンにおけるセグメンテーションの堅牢性を促進するための認識認識型融合フレームワークを提案する。
我々は,先進の競争相手に比べて15.3% mIOUの利得で,ロバスト性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-08-08T01:55:44Z) - Effects of Architectures on Continual Semantic Segmentation [0.0]
本稿では,ニューラルネットワークアーキテクチャの選択が,クラス・ドメイン・インクリメンタルセマンティックセグメンテーションにおける破滅的忘れにどのように影響するかを検討する。
ResNetのような従来のCNNの可塑性は高いが安定性は低いが、トランスフォーマーアーキテクチャはずっと安定している。
論文 参考訳(メタデータ) (2023-02-21T15:12:01Z) - Demystify Transformers & Convolutions in Modern Image Deep Networks [82.32018252867277]
本稿では,一般のコンボリューションとアテンション演算子の真の利益を,詳細な研究により同定することを目的とする。
注意や畳み込みのようなこれらの特徴変換モジュールの主な違いは、それらの空間的特徴集約アプローチにある。
各種課題の実験と帰納的バイアスの解析により,ネットワークレベルとブロックレベルの高度な設計により,性能が著しく向上した。
論文 参考訳(メタデータ) (2022-11-10T18:59:43Z) - Exploring the Relationship between Architecture and Adversarially Robust
Generalization [110.00366382964472]
敵の訓練は、敵の例を守るための最も効果的な治療法の1つである。
しばしば、目に見えないテストの敵に対する巨大な堅牢性一般化のギャップに悩まされる。
本稿では,最も代表的なアーキテクチャを体系的に検討し,そのギャップを埋めようとしている。
論文 参考訳(メタデータ) (2022-09-28T13:55:28Z) - Vision Transformer with Convolutions Architecture Search [72.70461709267497]
本稿では,畳み込み型アーキテクチャサーチ(VTCAS)を用いたアーキテクチャ探索手法を提案する。
VTCASによって探索された高性能バックボーンネットワークは、畳み込みニューラルネットワークの望ましい特徴をトランスフォーマーアーキテクチャに導入する。
これは、特に低照度屋内シーンにおいて、物体認識のためのニューラルネットワークの堅牢性を高める。
論文 参考訳(メタデータ) (2022-03-20T02:59:51Z) - Architectural Resilience to Foreground-and-Background Adversarial Noise [0.0]
正常な画像の知覚不能な摂動の形でのアドリサイドアタックが広く研究されている。
本稿では,異なるネットワークアーキテクチャのレジリエンスとロバスト性を検討するために,画像の異なるモデルに依存しないベンチマーク摂動を提案する。
論文 参考訳(メタデータ) (2020-03-23T01:38:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。