論文の概要: What You See is What You Classify: Black Box Attributions
- arxiv url: http://arxiv.org/abs/2205.11266v1
- Date: Mon, 23 May 2022 12:30:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-25 06:51:02.132458
- Title: What You See is What You Classify: Black Box Attributions
- Title(参考訳): ブラックボックスの属性(動画)
- Authors: Steven Stalder, Nathana\"el Perraudin, Radhakrishna Achanta, Fernando
Perez-Cruz, Michele Volpi
- Abstract要約: 我々は、トレーニング済みのブラックボックス分類器であるExpplanandumの属性を予測するために、ディープネットワークであるExplainerを訓練する。
既存のほとんどのアプローチとは異なり、我々の手法はクラス固有のマスクを直接生成することができる。
我々の属性は、視覚的および定量的に確立された方法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 61.998683569022006
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An important step towards explaining deep image classifiers lies in the
identification of image regions that contribute to individual class scores in
the model's output. However, doing this accurately is a difficult task due to
the black-box nature of such networks. Most existing approaches find such
attributions either using activations and gradients or by repeatedly perturbing
the input. We instead address this challenge by training a second deep network,
the Explainer, to predict attributions for a pre-trained black-box classifier,
the Explanandum. These attributions are in the form of masks that only show the
classifier-relevant parts of an image, masking out the rest. Our approach
produces sharper and more boundary-precise masks when compared to the saliency
maps generated by other methods. Moreover, unlike most existing approaches,
ours is capable of directly generating very distinct class-specific masks.
Finally, the proposed method is very efficient for inference since it only
takes a single forward pass through the Explainer to generate all
class-specific masks. We show that our attributions are superior to established
methods both visually and quantitatively, by evaluating them on the PASCAL
VOC-2007 and Microsoft COCO-2014 datasets.
- Abstract(参考訳): 深部画像分類器を説明する上で重要なステップは、モデルの出力における個々のクラススコアに寄与する画像領域の識別である。
しかし、こうしたネットワークのブラックボックスの性質から、正確に行うことは難しい課題である。
既存のほとんどのアプローチは、アクティベーションと勾配を使うか、繰り返し入力を摂動させることによってそのような属性を見つける。
代わりに、トレーニング済みのブラックボックス分類器であるExpplanandumの属性を予測するために、第2のディープネットワークであるExplainerをトレーニングすることで、この問題に対処する。
これらの属性は、画像の分類子関係部分のみを表示するマスクの形で、残りをマスクアウトする。
提案手法は,他の手法が生成する塩分マップと比較して,よりシャープでより境界精度の高いマスクを生成する。
さらに、既存のほとんどのアプローチとは異なり、我々の手法はクラス固有のマスクを直接生成することができる。
最後に,提案手法は,説明器を1回のフォワードパスで通り,すべてのクラス固有のマスクを生成するため,推論に非常に効率的である。
PASCAL VOC-2007 と Microsoft COCO-2014 のデータセットで評価することで,従来の手法よりも視覚的にも定量的にも優れていることを示す。
関連論文リスト
- ColorMAE: Exploring data-independent masking strategies in Masked AutoEncoders [53.3185750528969]
Masked AutoEncoders (MAE)は、堅牢な自己管理フレームワークとして登場した。
データに依存しないColorMAEという手法を導入し、ランダムノイズをフィルタすることで異なる二元マスクパターンを生成する。
ランダムマスキングと比較して,下流タスクにおける戦略の優位性を示す。
論文 参考訳(メタデータ) (2024-07-17T22:04:00Z) - Improving Masked Autoencoders by Learning Where to Mask [65.89510231743692]
マスケ画像モデリングは視覚データに対する有望な自己教師型学習手法である。
本稿では,Gumbel-Softmax を用いて,対向学習マスク生成装置とマスク誘導画像モデリングプロセスとを相互接続するフレームワーク AutoMAE を提案する。
実験の結果,AutoMAEは,標準の自己監督型ベンチマークや下流タスクに対して,効果的な事前学習モデルを提供することがわかった。
論文 参考訳(メタデータ) (2023-03-12T05:28:55Z) - Towards Improved Input Masking for Convolutional Neural Networks [66.99060157800403]
層マスキングと呼ぶCNNのための新しいマスキング手法を提案する。
本手法は,マスク形状や色がモデル出力に与える影響を排除あるいは最小化することができることを示す。
また,マスクの形状がクラスに関する情報を漏洩させる可能性を示し,クラス関連特徴に対するモデル依存度の推定に影響を及ぼすことを示した。
論文 参考訳(メタデータ) (2022-11-26T19:31:49Z) - Exploiting Shape Cues for Weakly Supervised Semantic Segmentation [15.791415215216029]
弱教師付きセマンティックセマンティックセグメンテーション (WSSS) は、画像レベルのラベルのみをトレーニング用として、画素単位のクラス予測を生成することを目的としている。
畳み込みニューラルネットワーク(CNN)のテクスチャバイアス特性を補うために形状情報を活用することを提案する。
我々は、クラスと色親和性の両方を考慮した新しい改良手法により、オンライン方式で予測をさらに洗練する。
論文 参考訳(メタデータ) (2022-08-08T17:25:31Z) - ContrastMask: Contrastive Learning to Segment Every Thing [18.265503138997794]
ContrastMaskを提案する。これは、目に見えないカテゴリと見えないカテゴリの両方でマスクセグメンテーションモデルを学ぶ。
仮面地域(地上)の特徴をまとめ、背景の特徴と対比する。
COCOデータセットの探索実験により,本手法の優位性を実証した。
論文 参考訳(メタデータ) (2022-03-18T07:41:48Z) - Few-shot semantic segmentation via mask aggregation [5.886986014593717]
セマンティックセグメンテーションは、ラベル付きデータが少ない新しいクラスを認識することを目的としている。
従来の研究では、これをピクセル単位の分類問題と見なしていた。
この問題に対処するためのマスクベースの分類手法を提案する。
論文 参考訳(メタデータ) (2022-02-15T07:13:09Z) - Per-Pixel Classification is Not All You Need for Semantic Segmentation [184.2905747595058]
マスク分類はセマンティックレベルのセグメンテーションタスクとインスタンスレベルのセグメンテーションタスクの両方を解くのに十分一般的である。
マスクの集合を予測する単純なマスク分類モデルであるMaskFormerを提案する。
提案手法は,現在の最先端セマンティック(ADE20Kでは55.6 mIoU)とパノプティックセグメンテーション(COCOでは52.7 PQ)モデルの両方に優れる。
論文 参考訳(メタデータ) (2021-07-13T17:59:50Z) - Image Inpainting by End-to-End Cascaded Refinement with Mask Awareness [66.55719330810547]
任意の欠落領域を塗りつぶすことは、様々なマスクされた領域で有効な特徴を学ぶことは非自明だから難しい。
符号化フェーズにおける欠落領域のマルチスケール特徴を学習する新しいマスク対応インペイントソリューションを提案する。
私たちのフレームワークは、3つの公開データセットに関する広範な実験を通じて定量的および定性的に検証されます。
論文 参考訳(メタデータ) (2021-04-28T13:17:47Z) - Investigating and Simplifying Masking-based Saliency Methods for Model
Interpretability [5.387323728379395]
画像の最も情報性の高い領域を識別する残差マップは、モデル解釈可能性に有用である。
唾液マップを作成するための一般的なアプローチは、画像の一部をマスクする入力マスクを生成することである。
マスキングモデルでは,クラス毎に10個のサンプルをトレーニングすることが可能であり,ローカライズエラーが0.7ポイントしか増加せず,いまだにサリエンシマップを生成可能であることを示す。
論文 参考訳(メタデータ) (2020-10-19T18:00:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。