論文の概要: Evaluating Robustness to Context-Sensitive Feature Perturbations of
Different Granularities
- arxiv url: http://arxiv.org/abs/2001.11055v3
- Date: Fri, 23 Oct 2020 13:58:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 20:53:22.641487
- Title: Evaluating Robustness to Context-Sensitive Feature Perturbations of
Different Granularities
- Title(参考訳): 異なる粒度の文脈知覚的特徴摂動に対するロバスト性の評価
- Authors: Isaac Dunn, Laura Hanu, Hadrien Pouget, Daniel Kroening, Tom Melham
- Abstract要約: 画像分類器の入力に対して,文脈に敏感な特徴摂動を識別する新しい手法を提案する。
我々は、訓練された生成ニューラルネットワークの異なるレイヤの活性化値に小さな調整を行うことで、これらの変化を生成する。
当然のことながら、最先端の分類器はそのような変化に対して堅牢ではない。
- 参考スコア(独自算出の注目度): 9.102162930376386
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We cannot guarantee that training datasets are representative of the
distribution of inputs that will be encountered during deployment. So we must
have confidence that our models do not over-rely on this assumption. To this
end, we introduce a new method that identifies context-sensitive feature
perturbations (e.g. shape, location, texture, colour) to the inputs of image
classifiers. We produce these changes by performing small adjustments to the
activation values of different layers of a trained generative neural network.
Perturbing at layers earlier in the generator causes changes to coarser-grained
features; perturbations further on cause finer-grained changes. Unsurprisingly,
we find that state-of-the-art classifiers are not robust to any such changes.
More surprisingly, when it comes to coarse-grained feature changes, we find
that adversarial training against pixel-space perturbations is not just
unhelpful: it is counterproductive.
- Abstract(参考訳): トレーニングデータセットが、デプロイメント中に遭遇するインプットの分布を表すものであることは保証できません。
ですから、この仮定ではモデルが過度に信頼されません。
そこで本稿では,画像分類器の入力に対するコンテキスト依存的特徴摂動(形状,位置,テクスチャ,色など)を識別する新しい手法を提案する。
訓練された生成ニューラルネットワークの異なるレイヤのアクティベーション値に小さな調整を行うことで、これらの変化を生み出す。
ジェネレータの早い段階でのレイヤの摂動は粒度の粗い特徴に変化をもたらし、さらに粒度の細かい変化を引き起こす。
当然のことながら、最先端の分類器はそのような変化に対して堅牢ではない。
より驚くべきことに、粗大な特徴の変化に関して言えば、ピクセル空間の摂動に対する敵対的なトレーニングは、単に非生産的ではない。
関連論文リスト
- Tilt your Head: Activating the Hidden Spatial-Invariance of Classifiers [0.7704032792820767]
ディープニューラルネットワークは、日々の生活の多くの領域に適用されている。
これらは、空間的に変換された入力信号に頑健に対処するなど、依然として必須の能力が欠如している。
本稿では,ニューラルネットの推論過程をエミュレートする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-06T09:47:29Z) - Robustness and invariance properties of image classifiers [8.970032486260695]
ディープニューラルネットワークは多くの画像分類タスクで印象的な結果を得た。
ディープネットワークは、多種多様なセマンティック保存画像修正に対して堅牢ではない。
画像分類器の小さなデータ分散シフトに対する堅牢性の低さは、その信頼性に関する深刻な懸念を引き起こす。
論文 参考訳(メタデータ) (2022-08-30T11:00:59Z) - Explaining Image Classifiers Using Contrastive Counterfactuals in
Generative Latent Spaces [12.514483749037998]
本稿では,画像分類器の因果的かつ解釈可能な反事実的説明を生成する新しい手法を提案する。
我々は、ブラックボックス分類器のグローバルな説明として、コントラスト的かつ因果的満足度と必要性スコアを得るために、このフレームワークを使用します。
論文 参考訳(メタデータ) (2022-06-10T17:54:46Z) - Towards Robust Classification Model by Counterfactual and Invariant Data
Generation [7.488317734152585]
純粋さは、一部の特徴がラベルと相関するが因果関係がないときに起こる。
本稿では2つのデータ生成プロセスを提案する。
我々のデータ生成は、スプリアス相関が壊れたときの精度で最先端の手法より優れています。
論文 参考訳(メタデータ) (2021-06-02T12:48:29Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Learning Invariances in Neural Networks [51.20867785006147]
ネットワークパラメータや拡張パラメータに関して,拡張性よりも分布をパラメータ化し,トレーニング損失を同時に最適化する方法を示す。
画像分類,回帰,セグメンテーション,分子特性予測における不均一性の正確なセットと範囲を,拡張の広い空間から復元することができる。
論文 参考訳(メタデータ) (2020-10-22T17:18:48Z) - Encoding Robustness to Image Style via Adversarial Feature Perturbations [72.81911076841408]
我々は、画像画素ではなく特徴統計を直接摂動することで、頑健なモデルを生成することで、敵の訓練に適応する。
提案手法であるAdvBN(Adversarial Batch Normalization)は,トレーニング中に最悪の機能摂動を発生させる単一ネットワーク層である。
論文 参考訳(メタデータ) (2020-09-18T17:52:34Z) - What Should Not Be Contrastive in Contrastive Learning [110.14159883496859]
本稿では,タスク依存不変性に関する事前知識を必要としない,対照的な学習フレームワークを提案する。
我々のモデルは、異なる埋め込み空間を構築することで、視覚表現の様々な要因や不変要素を捉えることを学習する。
我々は、共有バックボーンを持つマルチヘッドネットワークを使用し、各オーグメンテーションにまたがる情報をキャプチャし、ダウンストリームタスクにおけるすべてのベースラインより優れている。
論文 参考訳(メタデータ) (2020-08-13T03:02:32Z) - Learning perturbation sets for robust machine learning [97.6757418136662]
我々は、潜在空間の制約領域上に設定された摂動を定義する条件生成器を用いる。
学習した摂動集合の質を定量的かつ質的に測定する。
我々は、学習した摂動集合を利用して、敵画像の破損や逆光の変動に対して経験的かつ確実に堅牢なモデルを訓練する。
論文 参考訳(メタデータ) (2020-07-16T16:39:54Z) - Learning to Manipulate Individual Objects in an Image [71.55005356240761]
本稿では,独立性および局所性を有する潜在因子を用いた生成モデルを学習する手法について述べる。
これは、潜伏変数の摂動が、オブジェクトに対応する合成画像の局所領域のみに影響を与えることを意味する。
他の教師なし生成モデルとは異なり、オブジェクトレベルのアノテーションを必要とせず、オブジェクト中心の操作を可能にする。
論文 参考訳(メタデータ) (2020-04-11T21:50:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。