論文の概要: Adversarial Examples on Segmentation Models Can be Easy to Transfer
- arxiv url: http://arxiv.org/abs/2111.11368v1
- Date: Mon, 22 Nov 2021 17:26:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-23 17:23:38.871155
- Title: Adversarial Examples on Segmentation Models Can be Easy to Transfer
- Title(参考訳): セグメンテーションモデルの逆例は簡単に転送できる
- Authors: Jindong Gu, Hengshuang Zhao, Volker Tresp, Philip Torr
- Abstract要約: 分類モデルにおける逆例の移動性は、ますます関心を集めている。
分類とセグメンテーションモデルにおける逆例の過剰適合現象について検討する。
この制限を克服するために,動的スケーリングと呼ばれるシンプルで効果的な手法を提案する。
- 参考スコア(独自算出の注目度): 21.838878497660353
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural network-based image classification can be misled by adversarial
examples with small and quasi-imperceptible perturbations. Furthermore, the
adversarial examples created on one classification model can also fool another
different model. The transferability of the adversarial examples has recently
attracted a growing interest since it makes black-box attacks on classification
models feasible. As an extension of classification, semantic segmentation has
also received much attention towards its adversarial robustness. However, the
transferability of adversarial examples on segmentation models has not been
systematically studied. In this work, we intensively study this topic. First,
we explore the overfitting phenomenon of adversarial examples on classification
and segmentation models. In contrast to the observation made on classification
models that the transferability is limited by overfitting to the source model,
we find that the adversarial examples on segmentations do not always overfit
the source models. Even when no overfitting is presented, the transferability
of adversarial examples is limited. We attribute the limitation to the
architectural traits of segmentation models, i.e., multi-scale object
recognition. Then, we propose a simple and effective method, dubbed dynamic
scaling, to overcome the limitation. The high transferability achieved by our
method shows that, in contrast to the observations in previous work,
adversarial examples on a segmentation model can be easy to transfer to other
segmentation models. Our analysis and proposals are supported by extensive
experiments.
- Abstract(参考訳): ディープニューラルネットワークに基づく画像分類は、小さくて準知覚できない摂動を持つ敵の例によって誤解されることがある。
さらに、ある分類モデルで作成された敵対的な例は、別の異なるモデルを騙すこともできる。
近年,分類モデルに対するブラックボックス攻撃の実現により,敵対例の転送可能性が高まっている。
分類の拡張として、セマンティックセグメンテーションはその敵の堅牢性に対して多くの注目を集めている。
しかし,セグメンテーションモデルにおける逆例の伝達性は体系的に研究されていない。
本研究では,このトピックを集中的に研究する。
まず,分類とセグメンテーションモデルにおける逆例の過剰適合現象について検討する。
ソースモデルに過度に適合することでトランスファービリティが制限されるという分類モデル上の観察とは対照的に,セグメントの逆例は必ずしもソースモデルに過度に適合しない。
オーバーフィッティングが提示されない場合でも、逆例の転送性は制限される。
我々は、この制限をセグメンテーションモデルのアーキテクチャ特性、すなわちマルチスケールオブジェクト認識に分類する。
次に,この制限を克服するために,動的スケーリングと呼ばれる単純かつ効果的な手法を提案する。
提案手法が達成した高い伝達性は,先行研究の観察と対照的に,セグメンテーションモデルの逆例が他のセグメンテーションモデルに容易に移行できることを示す。
我々の分析と提案は広範な実験によって支持されている。
関連論文リスト
- Scaling Laws for Black box Adversarial Attacks [37.744814957775965]
敵の例では、クロスモデル転送可能性を示し、ブラックボックスモデルを攻撃することができる。
モデルアンサンブルは、複数のサロゲートモデルを同時に攻撃することで、転送可能性を改善する効果的な戦略である。
スケールされた攻撃はセマンティクスにおいてより良い解釈可能性をもたらし、モデルの共通の特徴がキャプチャーされることを示す。
論文 参考訳(メタデータ) (2024-11-25T08:14:37Z) - Transcending Adversarial Perturbations: Manifold-Aided Adversarial
Examples with Legitimate Semantics [10.058463432437659]
ディープニューラルネットワークは、悪意のある小さな摂動によって操作される敵の例に対して、極めて脆弱であった。
本稿では, 現実的, 合法的意味論による敵対的事例を生成するために, 教師付き意味変換生成モデルを提案する。
MNISTおよび産業用欠陥データセットを用いた実験により、我々の敵の例は、より良い視覚的品質を示しただけでなく、優れた攻撃伝達性を示した。
論文 参考訳(メタデータ) (2024-02-05T15:25:40Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - Harnessing Perceptual Adversarial Patches for Crowd Counting [92.79051296850405]
群衆のカウントは、物理的な世界の敵の例に弱い。
本稿では,モデル間での知覚的特徴の共有を学習するためのPAP(Perceptual Adrial Patch)生成フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:51:39Z) - On the Transferability of Adversarial Attacksagainst Neural Text
Classifier [121.6758865857686]
テキスト分類モデルの逆例の転送可能性について検討する。
本稿では,ほとんどすべての既存モデルを騙すために,敵の例を誘導できるモデル群を見つける遺伝的アルゴリズムを提案する。
これらの逆例からモデル診断に使用できる単語置換規則を導出する。
論文 参考訳(メタデータ) (2020-11-17T10:45:05Z) - On the Benefits of Models with Perceptually-Aligned Gradients [8.427953227125148]
敵攻撃に対する強靭性を示さないモデルにおいても,解釈的かつ知覚的に整合した勾配が存在することを示す。
解釈可能な知覚整合性を持つモデルを活用し、最大摂動境界の低い対角トレーニングがゼロショットおよび弱教師付きローカライゼーションタスクのモデルの性能を向上させることを示す。
論文 参考訳(メタデータ) (2020-05-04T14:05:38Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z) - Fundamental Tradeoffs between Invariance and Sensitivity to Adversarial
Perturbations [65.05561023880351]
敵の例は誤分類を引き起こすために作られた悪意のある入力である。
本稿では, 相補的障害モード, 不変性に基づく逆数例について検討する。
感度に基づく攻撃に対する防御は、不変性に基づく攻撃に対するモデルの精度を積極的に損なうことを示す。
論文 参考訳(メタデータ) (2020-02-11T18:50:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。