論文の概要: Investigating and Simplifying Masking-based Saliency Methods for Model
Interpretability
- arxiv url: http://arxiv.org/abs/2010.09750v1
- Date: Mon, 19 Oct 2020 18:00:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 22:26:59.193412
- Title: Investigating and Simplifying Masking-based Saliency Methods for Model
Interpretability
- Title(参考訳): マスキングに基づくモデル解釈法の検討と簡易化
- Authors: Jason Phang, Jungkyu Park and Krzysztof J. Geras
- Abstract要約: 画像の最も情報性の高い領域を識別する残差マップは、モデル解釈可能性に有用である。
唾液マップを作成するための一般的なアプローチは、画像の一部をマスクする入力マスクを生成することである。
マスキングモデルでは,クラス毎に10個のサンプルをトレーニングすることが可能であり,ローカライズエラーが0.7ポイントしか増加せず,いまだにサリエンシマップを生成可能であることを示す。
- 参考スコア(独自算出の注目度): 5.387323728379395
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Saliency maps that identify the most informative regions of an image for a
classifier are valuable for model interpretability. A common approach to
creating saliency maps involves generating input masks that mask out portions
of an image to maximally deteriorate classification performance, or mask in an
image to preserve classification performance. Many variants of this approach
have been proposed in the literature, such as counterfactual generation and
optimizing over a Gumbel-Softmax distribution. Using a general formulation of
masking-based saliency methods, we conduct an extensive evaluation study of a
number of recently proposed variants to understand which elements of these
methods meaningfully improve performance. Surprisingly, we find that a
well-tuned, relatively simple formulation of a masking-based saliency model
outperforms many more complex approaches. We find that the most important
ingredients for high quality saliency map generation are (1) using both
masked-in and masked-out objectives and (2) training the classifier alongside
the masking model. Strikingly, we show that a masking model can be trained with
as few as 10 examples per class and still generate saliency maps with only a
0.7-point increase in localization error.
- Abstract(参考訳): 分類器のイメージの最も情報性の高い領域を識別する残差マップは、モデルの解釈可能性に有用である。
サリエンシーマップを作成する一般的なアプローチは、画像の一部をマスクして分類性能を最大に低下させる入力マスクや、画像内のマスクを生成して分類性能を維持することである。
このアプローチの多くの変種が文献で提案されており、例えば、反事実生成やグンベル・ソフトマックス分布の最適化がある。
マスキングに基づく敬礼法の一般的な定式化を用いて,提案手法のどの要素がパフォーマンスを有意義に向上しているかを理解するために,最近提案されている多くの変種について広範な評価を行った。
意外なことに、マスクベースのサリエンシモデルの十分に調整された比較的単純な定式化は、より複雑なアプローチよりも優れている。
その結果,(1)マスキングインとマスクアウトの両方の目的を用い,(2)マスキングモデルと並行して分類器を訓練することであった。
驚くべきことに,マスキングモデルはクラス毎に10例程度しかトレーニングできず,0.7ポイントのローカライズエラーしか発生しないサリエンシーマップを生成することができる。
関連論文リスト
- Mask2Anomaly: Mask Transformer for Universal Open-set Segmentation [29.43462426812185]
本稿では,画素単位の分類からマスク分類へのシフトによるパラダイム変化を提案する。
マスクをベースとしたMask2Anomalyは,マスク分類アーキテクチャの統合の可能性を示した。
総合的質的・質的評価により, Mask2Anomaly は新たな最先端結果が得られることを示す。
論文 参考訳(メタデータ) (2023-09-08T20:07:18Z) - Unmasking Anomalies in Road-Scene Segmentation [18.253109627901566]
異常セグメンテーションはアプリケーションを駆動するための重要なタスクである。
本稿では,画素単位の分類からマスク分類へのシフトによるパラダイム変化を提案する。
Mask2Anomalyはマスク分類アーキテクチャに異常検出手法を統合する可能性を示した。
論文 参考訳(メタデータ) (2023-07-25T08:23:10Z) - Denoising Diffusion Semantic Segmentation with Mask Prior Modeling [61.73352242029671]
本稿では,従来の識別的アプローチのセマンティックセグメンテーション品質を,デノナイズ拡散生成モデルでモデル化したマスクを用いて改善することを提案する。
市販セグメンタを用いた先行モデルの評価を行い,ADE20KとCityscapesの実験結果から,本手法が競争力のある定量的性能を実現することを示す。
論文 参考訳(メタデータ) (2023-06-02T17:47:01Z) - Improving Masked Autoencoders by Learning Where to Mask [65.89510231743692]
マスケ画像モデリングは視覚データに対する有望な自己教師型学習手法である。
本稿では,Gumbel-Softmax を用いて,対向学習マスク生成装置とマスク誘導画像モデリングプロセスとを相互接続するフレームワーク AutoMAE を提案する。
実験の結果,AutoMAEは,標準の自己監督型ベンチマークや下流タスクに対して,効果的な事前学習モデルを提供することがわかった。
論文 参考訳(メタデータ) (2023-03-12T05:28:55Z) - What You See is What You Classify: Black Box Attributions [61.998683569022006]
我々は、トレーニング済みのブラックボックス分類器であるExpplanandumの属性を予測するために、ディープネットワークであるExplainerを訓練する。
既存のほとんどのアプローチとは異なり、我々の手法はクラス固有のマスクを直接生成することができる。
我々の属性は、視覚的および定量的に確立された方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-05-23T12:30:04Z) - ContrastMask: Contrastive Learning to Segment Every Thing [18.265503138997794]
ContrastMaskを提案する。これは、目に見えないカテゴリと見えないカテゴリの両方でマスクセグメンテーションモデルを学ぶ。
仮面地域(地上)の特徴をまとめ、背景の特徴と対比する。
COCOデータセットの探索実験により,本手法の優位性を実証した。
論文 参考訳(メタデータ) (2022-03-18T07:41:48Z) - Per-Pixel Classification is Not All You Need for Semantic Segmentation [184.2905747595058]
マスク分類はセマンティックレベルのセグメンテーションタスクとインスタンスレベルのセグメンテーションタスクの両方を解くのに十分一般的である。
マスクの集合を予測する単純なマスク分類モデルであるMaskFormerを提案する。
提案手法は,現在の最先端セマンティック(ADE20Kでは55.6 mIoU)とパノプティックセグメンテーション(COCOでは52.7 PQ)モデルの両方に優れる。
論文 参考訳(メタデータ) (2021-07-13T17:59:50Z) - Commonality-Parsing Network across Shape and Appearance for Partially
Supervised Instance Segmentation [71.59275788106622]
そこで本稿では,マスク付分類から新しい分類へ一般化可能な,クラス非依存の共通性について考察する。
本モデルでは,COCOデータセット上のサンプルセグメンテーションにおける部分教師付き設定と少数ショット設定の両方において,最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2020-07-24T07:23:44Z) - Masking as an Efficient Alternative to Finetuning for Pretrained
Language Models [49.64561153284428]
我々は、微調整によって修正する代わりに、事前訓練された重量に対する選択的な二乗マスクを学習する。
内在的評価では、マスキング言語モデルによって計算された表現が、下流タスクの解決に必要な情報を符号化していることを示す。
論文 参考訳(メタデータ) (2020-04-26T15:03:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。