論文の概要: Verifying Attention Robustness of Deep Neural Networks against Semantic
Perturbations
- arxiv url: http://arxiv.org/abs/2207.05902v1
- Date: Wed, 13 Jul 2022 00:26:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-14 15:09:24.218116
- Title: Verifying Attention Robustness of Deep Neural Networks against Semantic
Perturbations
- Title(参考訳): 意味摂動に対する深部ニューラルネットワークの意図ロバスト性検証
- Authors: Satoshi Munakata, Caterina Urban, Haruki Yokoyama, Koji Yamamoto, and
Kazuki Munakata
- Abstract要約: 機密マップは、分類決定基準の妥当性を確認するために使用される。
そこで本研究では,意味摂動の組み合わせに対するサリエンシマップの変化の局所的ロバスト性について,注意力に対する最初の検証手法を提案する。
- 参考スコア(独自算出の注目度): 2.7598466876818004
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: It is known that deep neural networks (DNNs) classify an input image by
paying particular attention to certain specific pixels; a graphical
representation of the magnitude of attention to each pixel is called a
saliency-map. Saliency-maps are used to check the validity of the
classification decision basis, e.g., it is not a valid basis for classification
if a DNN pays more attention to the background rather than the subject of an
image. Semantic perturbations can significantly change the saliency-map. In
this work, we propose the first verification method for attention robustness,
i.e., the local robustness of the changes in the saliency-map against
combinations of semantic perturbations. Specifically, our method determines the
range of the perturbation parameters (e.g., the brightness change) that
maintains the difference between the actual saliency-map change and the
expected saliency-map change below a given threshold value. Our method is based
on activation region traversals, focusing on the outermost robust boundary for
scalability on larger DNNs. Experimental results demonstrate that our method
can show the extent to which DNNs can classify with the same basis regardless
of semantic perturbations and report on performance and performance factors of
activation region traversals.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は特定の特定の画素に特定の注意を払って入力画像を分類することが知られている。
例えば、DNNが画像の主題よりも背景に注意を払う場合、分類の有効な基盤ではない。
セマンティックな摂動はサリエンシマップを大きく変えることができる。
そこで本研究では,意味摂動の組み合わせに対するサリエンシマップの変化の局所的ロバスト性,すなわち注意力のロバスト性に関する最初の検証手法を提案する。
具体的には、実際の給与マップ変化と期待給与マップ変化との差を維持する摂動パラメータ(例えば輝度変化)の範囲を所定の閾値以下で決定する。
提案手法はアクティベーション領域トラバーサルに基づいており,大規模dnnにおけるスケーラビリティの最も外側のロバストな境界に着目している。
実験の結果,dnnが意味的摂動によらず同じ基準で分類できる程度を示し,活性化領域トラバーサルの性能と性能因子について報告することができた。
関連論文リスト
- SCAAT: Improving Neural Network Interpretability via Saliency
Constrained Adaptive Adversarial Training [10.716021768803433]
サリエンシマップは、特徴属性のヒートマップを示す一般的な説明形式である。
本研究では,DNNの解釈能力を向上させるために,Saliency Constrained Adversarial Training (SCAAT) と呼ばれるモデルに依存しない学習手法を提案する。
論文 参考訳(メタデータ) (2023-11-09T04:48:38Z) - Fine-grained Recognition with Learnable Semantic Data Augmentation [68.48892326854494]
きめ細かい画像認識は、長年続くコンピュータビジョンの課題である。
本稿では,識別領域損失問題を軽減するため,特徴レベルのトレーニングデータを多様化することを提案する。
本手法は,いくつかの人気分類ネットワーク上での一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-09-01T11:15:50Z) - SR-GNN: Spatial Relation-aware Graph Neural Network for Fine-Grained
Image Categorization [24.286426387100423]
本稿では,最も関連性の高い画像領域からコンテキスト認識機能を集約することで,微妙な変化を捉える手法を提案する。
我々のアプローチは、近年の自己注意とグラフニューラルネットワーク(GNN)の発展にインスパイアされている。
これは、認識精度のかなりの差で最先端のアプローチよりも優れている。
論文 参考訳(メタデータ) (2022-09-05T19:43:15Z) - Weakly-supervised fire segmentation by visualizing intermediate CNN
layers [82.75113406937194]
画像やビデオにおける火の局所化は、火災事故に対処するための自律システムにとって重要なステップである。
我々は,ネットワークのトレーニングに画像ラベルのみを使用する,画像中の火の弱い制御セグメント化について検討する。
CNNの中間層における特徴量の平均値は,2値セグメンテーション問題である火災セグメンテーションの場合,従来のクラスアクティベーションマッピング(CAM)法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-16T11:56:28Z) - CAMERAS: Enhanced Resolution And Sanity preserving Class Activation
Mapping for image saliency [61.40511574314069]
バックプロパゲーション画像のサリエンシは、入力中の個々のピクセルのモデル中心の重要性を推定することにより、モデル予測を説明することを目的としている。
CAMERASは、外部の事前処理を必要とせずに、高忠実度バックプロパゲーション・サリエンシ・マップを計算できる手法である。
論文 参考訳(メタデータ) (2021-06-20T08:20:56Z) - Bayesian Attention Belief Networks [59.183311769616466]
注意に基づくニューラルネットワークは、幅広いタスクにおいて最先端の結果を得た。
本稿では,非正規化注意重みをモデル化してデコーダネットワークを構築するベイズ的注意信念ネットワークについて紹介する。
提案手法は, 精度, 不確実性推定, ドメイン間の一般化, 敵攻撃において, 決定論的注意と最先端の注意よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-06-09T17:46:22Z) - Focused LRP: Explainable AI for Face Morphing Attack Detection [3.145455301228176]
本稿では,Deep Neural Networkによって画像領域を用いて,実際の顔画像と形態的顔画像とを識別する,正確なピクセルレベルの人間の検査者に説明する枠組みを提案する。
また,本手法の品質を客観的に分析し,FLRPを他の解釈可能性手法と比較する枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-26T19:05:01Z) - An Empirical Method to Quantify the Peripheral Performance Degradation
in Deep Networks [18.808132632482103]
畳み込みニューラルネットワーク(CNN)カーネルは、各畳み込み層に結合する。
より深いネットワークとストライドベースのダウンサンプリングを組み合わせることで、この領域の伝播は、画像の無視できない部分をカバーすることができる。
我々のデータセットは、高解像度の背景にオブジェクトを挿入することで構築され、画像境界に対してターゲットオブジェクトを特定の位置に配置するサブイメージを収穫することができる。
マスクR-CNNの動作を目標位置の選択にわたって探索することにより、画像境界付近、特に画像コーナーにおいて、パフォーマンス劣化の明確なパターンが明らかになる。
論文 参考訳(メタデータ) (2020-12-04T18:00:47Z) - Semantic Change Detection with Asymmetric Siamese Networks [71.28665116793138]
2つの空中画像が与えられた場合、セマンティックチェンジ検出は、土地被覆のバリエーションを特定し、それらの変化タイプをピクセルワイド境界で識別することを目的としている。
この問題は、正確な都市計画や天然資源管理など、多くの地球ビジョンに関連するタスクにおいて不可欠である。
本研究では, 広く異なる構造を持つモジュールから得られた特徴対を用いて意味変化を同定し, 同定するための非対称システマネットワーク(ASN)を提案する。
論文 参考訳(メタデータ) (2020-10-12T13:26:30Z) - Deep Convolutional Neural Network for Identifying Seam-Carving Forgery [10.324492319976798]
本稿では,畳み込み型ニューラルネットワーク(CNN)を用いたシーム彫刻に基づく画像の分類と拡大手法を提案する。
本研究は,3クラス分類(オリジナル,シーム挿入,シーム除去)における最先端性能を示す。
論文 参考訳(メタデータ) (2020-07-05T17:20:51Z) - Ventral-Dorsal Neural Networks: Object Detection via Selective Attention [51.79577908317031]
我々はVDNet(Ventral-Dorsal Networks)と呼ばれる新しいフレームワークを提案する。
人間の視覚システムの構造にインスパイアされた我々は「Ventral Network」と「Dorsal Network」の統合を提案する。
実験の結果,提案手法は最先端の物体検出手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-15T23:57:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。