論文の概要: Investigating and Simplifying Masking-based Saliency Methods for Model
Interpretability
- arxiv url: http://arxiv.org/abs/2010.09750v1
- Date: Mon, 19 Oct 2020 18:00:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 22:26:59.193412
- Title: Investigating and Simplifying Masking-based Saliency Methods for Model
Interpretability
- Title(参考訳): マスキングに基づくモデル解釈法の検討と簡易化
- Authors: Jason Phang, Jungkyu Park and Krzysztof J. Geras
- Abstract要約: 画像の最も情報性の高い領域を識別する残差マップは、モデル解釈可能性に有用である。
唾液マップを作成するための一般的なアプローチは、画像の一部をマスクする入力マスクを生成することである。
マスキングモデルでは,クラス毎に10個のサンプルをトレーニングすることが可能であり,ローカライズエラーが0.7ポイントしか増加せず,いまだにサリエンシマップを生成可能であることを示す。
- 参考スコア(独自算出の注目度): 5.387323728379395
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Saliency maps that identify the most informative regions of an image for a
classifier are valuable for model interpretability. A common approach to
creating saliency maps involves generating input masks that mask out portions
of an image to maximally deteriorate classification performance, or mask in an
image to preserve classification performance. Many variants of this approach
have been proposed in the literature, such as counterfactual generation and
optimizing over a Gumbel-Softmax distribution. Using a general formulation of
masking-based saliency methods, we conduct an extensive evaluation study of a
number of recently proposed variants to understand which elements of these
methods meaningfully improve performance. Surprisingly, we find that a
well-tuned, relatively simple formulation of a masking-based saliency model
outperforms many more complex approaches. We find that the most important
ingredients for high quality saliency map generation are (1) using both
masked-in and masked-out objectives and (2) training the classifier alongside
the masking model. Strikingly, we show that a masking model can be trained with
as few as 10 examples per class and still generate saliency maps with only a
0.7-point increase in localization error.
- Abstract(参考訳): 分類器のイメージの最も情報性の高い領域を識別する残差マップは、モデルの解釈可能性に有用である。
サリエンシーマップを作成する一般的なアプローチは、画像の一部をマスクして分類性能を最大に低下させる入力マスクや、画像内のマスクを生成して分類性能を維持することである。
このアプローチの多くの変種が文献で提案されており、例えば、反事実生成やグンベル・ソフトマックス分布の最適化がある。
マスキングに基づく敬礼法の一般的な定式化を用いて,提案手法のどの要素がパフォーマンスを有意義に向上しているかを理解するために,最近提案されている多くの変種について広範な評価を行った。
意外なことに、マスクベースのサリエンシモデルの十分に調整された比較的単純な定式化は、より複雑なアプローチよりも優れている。
その結果,(1)マスキングインとマスクアウトの両方の目的を用い,(2)マスキングモデルと並行して分類器を訓練することであった。
驚くべきことに,マスキングモデルはクラス毎に10例程度しかトレーニングできず,0.7ポイントのローカライズエラーしか発生しないサリエンシーマップを生成することができる。
関連論文リスト
- Hybrid diffusion models: combining supervised and generative pretraining for label-efficient fine-tuning of segmentation models [55.2480439325792]
そこで本研究では,第1領域における画像のデノベーションとマスク予測を同時に行うことを目的とした,新しいプレテキストタスクを提案する。
提案手法を用いて事前学習したモデルを微調整すると、教師なしまたは教師なしの事前学習を用いて訓練した類似モデルの微調整よりも優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2024-08-06T20:19:06Z) - MaskInversion: Localized Embeddings via Optimization of Explainability Maps [49.50785637749757]
MaskInversionは、テスト時にマスクによって指定されたクエリ画像領域に対するコンテキスト認識の埋め込みを生成する。
オープン語彙のクラス検索、表現理解の参照、局所的なキャプションや画像生成など、幅広いタスクに使用することができる。
論文 参考訳(メタデータ) (2024-07-29T14:21:07Z) - Mask2Anomaly: Mask Transformer for Universal Open-set Segmentation [29.43462426812185]
本稿では,画素単位の分類からマスク分類へのシフトによるパラダイム変化を提案する。
マスクをベースとしたMask2Anomalyは,マスク分類アーキテクチャの統合の可能性を示した。
総合的質的・質的評価により, Mask2Anomaly は新たな最先端結果が得られることを示す。
論文 参考訳(メタデータ) (2023-09-08T20:07:18Z) - Unmasking Anomalies in Road-Scene Segmentation [18.253109627901566]
異常セグメンテーションはアプリケーションを駆動するための重要なタスクである。
本稿では,画素単位の分類からマスク分類へのシフトによるパラダイム変化を提案する。
Mask2Anomalyはマスク分類アーキテクチャに異常検出手法を統合する可能性を示した。
論文 参考訳(メタデータ) (2023-07-25T08:23:10Z) - Denoising Diffusion Semantic Segmentation with Mask Prior Modeling [61.73352242029671]
本稿では,従来の識別的アプローチのセマンティックセグメンテーション品質を,デノナイズ拡散生成モデルでモデル化したマスクを用いて改善することを提案する。
市販セグメンタを用いた先行モデルの評価を行い,ADE20KとCityscapesの実験結果から,本手法が競争力のある定量的性能を実現することを示す。
論文 参考訳(メタデータ) (2023-06-02T17:47:01Z) - Improving Masked Autoencoders by Learning Where to Mask [65.89510231743692]
マスケ画像モデリングは視覚データに対する有望な自己教師型学習手法である。
本稿では,Gumbel-Softmax を用いて,対向学習マスク生成装置とマスク誘導画像モデリングプロセスとを相互接続するフレームワーク AutoMAE を提案する。
実験の結果,AutoMAEは,標準の自己監督型ベンチマークや下流タスクに対して,効果的な事前学習モデルを提供することがわかった。
論文 参考訳(メタデータ) (2023-03-12T05:28:55Z) - What You See is What You Classify: Black Box Attributions [61.998683569022006]
我々は、トレーニング済みのブラックボックス分類器であるExpplanandumの属性を予測するために、ディープネットワークであるExplainerを訓練する。
既存のほとんどのアプローチとは異なり、我々の手法はクラス固有のマスクを直接生成することができる。
我々の属性は、視覚的および定量的に確立された方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-05-23T12:30:04Z) - ContrastMask: Contrastive Learning to Segment Every Thing [18.265503138997794]
ContrastMaskを提案する。これは、目に見えないカテゴリと見えないカテゴリの両方でマスクセグメンテーションモデルを学ぶ。
仮面地域(地上)の特徴をまとめ、背景の特徴と対比する。
COCOデータセットの探索実験により,本手法の優位性を実証した。
論文 参考訳(メタデータ) (2022-03-18T07:41:48Z) - Per-Pixel Classification is Not All You Need for Semantic Segmentation [184.2905747595058]
マスク分類はセマンティックレベルのセグメンテーションタスクとインスタンスレベルのセグメンテーションタスクの両方を解くのに十分一般的である。
マスクの集合を予測する単純なマスク分類モデルであるMaskFormerを提案する。
提案手法は,現在の最先端セマンティック(ADE20Kでは55.6 mIoU)とパノプティックセグメンテーション(COCOでは52.7 PQ)モデルの両方に優れる。
論文 参考訳(メタデータ) (2021-07-13T17:59:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。