論文の概要: Closer Look at the Transferability of Adversarial Examples: How They
Fool Different Models Differently
- arxiv url: http://arxiv.org/abs/2112.14337v1
- Date: Wed, 29 Dec 2021 00:18:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-30 23:57:39.116852
- Title: Closer Look at the Transferability of Adversarial Examples: How They
Fool Different Models Differently
- Title(参考訳): 相反例の伝達可能性について -異なるモデルにどのように差をつけるか-
- Authors: Futa Waseda, Sosuke Nishikawa, Trung-Nghia Le, Huy H. Nguyen, and Isao
Echizen
- Abstract要約: 逆例(AE)は、別の(ターゲット)モデルの予測を誤解させる可能性がある。
我々は、同じ誤りが「非目標転送可能性」と相関していることを示す。
同一と異なる誤りの違いは、非破壊的特徴によって説明できることを示す。
- 参考スコア(独自算出の注目度): 8.735806163924602
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks are vulnerable to adversarial examples (AEs), which have
adversarial transferability: AEs generated for the source model can mislead
another (target) model's predictions. However, the transferability has not been
understood from the perspective of to which class target model's predictions
were misled (i.e., class-aware transferability). In this paper, we
differentiate the cases in which a target model predicts the same wrong class
as the source model ("same mistake") or a different wrong class ("different
mistake") to analyze and provide an explanation of the mechanism. First, our
analysis shows (1) that same mistakes correlate with "non-targeted
transferability" and (2) that different mistakes occur between similar models
regardless of the perturbation size. Second, we present evidence that the
difference in same and different mistakes can be explained by non-robust
features, predictive but human-uninterpretable patterns: different mistakes
occur when non-robust features in AEs are used differently by models.
Non-robust features can thus provide consistent explanations for the
class-aware transferability of AEs.
- Abstract(参考訳): 深層ニューラルネットワークは、敵対的な転送可能性を持つ敵の例(AE)に対して脆弱である:ソースモデルのために生成されたAEは、別の(ターゲット)モデルの予測を誤解させる可能性がある。
しかし、どのクラス対象モデルの予測が誤解されたか(すなわち、クラス認識の転送可能性)の観点からは、転送性は理解されていない。
本稿では,対象モデルがソースモデル(「同じ間違い」)や異なる間違ったクラス(「異なる間違い」)と同じ間違ったクラスを予測して解析し,そのメカニズムを説明する場合との違いを区別する。
まず,(1)同一の誤りが「非目標伝達可能性」と相関し,(2)摂動サイズに関係なく類似モデル間で異なる誤りが発生することを示した。
第二に、同一の誤りと異なる誤りの違いは、予測的だが人間の解釈不能なパターンによって説明できることを示す: 異なる誤りは、AEにおける非破壊的特徴がモデルによって異なる場合に起こる。
非ロバストな特徴は、AEのクラス認識転送可能性について一貫した説明を提供することができる。
関連論文リスト
- On the Strong Correlation Between Model Invariance and Generalization [54.812786542023325]
一般化は、見えないデータを分類するモデルの能力をキャプチャする。
不変性はデータの変換におけるモデル予測の一貫性を測定する。
データセット中心の視点から、あるモデルの精度と不変性は異なるテストセット上で線形に相関している。
論文 参考訳(メタデータ) (2022-07-14T17:08:25Z) - A Tale Of Two Long Tails [4.970364068620608]
モデルが不確実である例を特定し、その不確実性の原因を特徴付ける。
追加情報が存在する場合の学習速度が,非典型例と雑音例とで異なるか否かを検討する。
以上の結果から,トレーニングの過程で適切に設計された介入は,異なる不確実性源の識別・識別に有効な方法であることが示唆された。
論文 参考訳(メタデータ) (2021-07-27T22:49:59Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Why do classifier accuracies show linear trends under distribution
shift? [58.40438263312526]
あるデータ分布上のモデルの精度は、別の分布上の精度のほぼ線形関数である。
2つのモデルが予測で一致する確率は、精度レベルだけで推測できるものよりも高いと仮定します。
分布シフトの大きさが大きければ, 2 つの分布のモデルを評価する場合, 線形傾向が生じなければならない。
論文 参考訳(メタデータ) (2020-12-31T07:24:30Z) - Dependency Decomposition and a Reject Option for Explainable Models [4.94950858749529]
近年のディープラーニングモデルは様々な推論タスクにおいて非常によく機能する。
最近の進歩は特徴を視覚化し、入力の属性を記述する方法を提供します。
本稿では, 目的の画像分類出力に対する確率分布に関する依存性を初めて解析する。
論文 参考訳(メタデータ) (2020-12-11T17:39:33Z) - Generalization and Memorization: The Bias Potential Model [9.975163460952045]
生成モデルと密度推定器は、関数の学習モデルとは全く異なる振る舞いをする。
バイアスポテンシャルモデルでは、早期停止が採用された場合、次元非依存の一般化精度が達成可能であることを示す。
長期的には、モデルはサンプルを記憶するか、分岐させる。
論文 参考訳(メタデータ) (2020-11-29T04:04:54Z) - On the Transferability of Adversarial Attacksagainst Neural Text
Classifier [121.6758865857686]
テキスト分類モデルの逆例の転送可能性について検討する。
本稿では,ほとんどすべての既存モデルを騙すために,敵の例を誘導できるモデル群を見つける遺伝的アルゴリズムを提案する。
これらの逆例からモデル診断に使用できる単語置換規則を導出する。
論文 参考訳(メタデータ) (2020-11-17T10:45:05Z) - Estimating Generalization under Distribution Shifts via Domain-Invariant
Representations [75.74928159249225]
未知の真のターゲットラベルのプロキシとして、ドメイン不変の予測器のセットを使用します。
結果として生じるリスク見積の誤差は、プロキシモデルのターゲットリスクに依存する。
論文 参考訳(メタデータ) (2020-07-06T17:21:24Z) - Fundamental Tradeoffs between Invariance and Sensitivity to Adversarial
Perturbations [65.05561023880351]
敵の例は誤分類を引き起こすために作られた悪意のある入力である。
本稿では, 相補的障害モード, 不変性に基づく逆数例について検討する。
感度に基づく攻撃に対する防御は、不変性に基づく攻撃に対するモデルの精度を積極的に損なうことを示す。
論文 参考訳(メタデータ) (2020-02-11T18:50:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。