論文の概要: Sanity checks and improvements for patch visualisation in
prototype-based image classification
- arxiv url: http://arxiv.org/abs/2302.08508v2
- Date: Mon, 15 May 2023 09:09:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-16 23:17:35.559391
- Title: Sanity checks and improvements for patch visualisation in
prototype-based image classification
- Title(参考訳): プロトタイプ画像分類における正当性チェックとパッチ可視化の改善
- Authors: Romain Xu-Darme (LSL, MRIM), Georges Qu\'enot (MRIM), Zakaria Chihani
(LSL), Marie-Christine Rousset (SLIDE)
- Abstract要約: プロトタイプに基づく視覚分類のための2つの一般的な自己説明モデルに実装された視覚的手法の詳細な分析を行う。
まず、そのような手法は画像内の関心領域を正確に識別せず、従ってモデル動作を反映しないことを示す。
我々は,同じ可視化手法を共有する他のプロトタイプベースモデルに対して,本研究がもたらす意味について論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we perform an in-depth analysis of the visualisation methods
implemented in two popular self-explaining models for visual classification
based on prototypes - ProtoPNet and ProtoTree. Using two fine-grained datasets
(CUB-200-2011 and Stanford Cars), we first show that such methods do not
correctly identify the regions of interest inside of the images, and therefore
do not reflect the model behaviour. Secondly, using a deletion metric, we
demonstrate quantitatively that saliency methods such as Smoothgrads or PRP
provide more faithful image patches. We also propose a new relevance metric
based on the segmentation of the object provided in some datasets (e.g.
CUB-200-2011) and show that the imprecise patch visualisations generated by
ProtoPNet and ProtoTree can create a false sense of bias that can be mitigated
by the use of more faithful methods. Finally, we discuss the implications of
our findings for other prototype-based models sharing the same visualisation
method.
- Abstract(参考訳): 本研究では,プロトタイプをベースとした視覚分類モデルであるProtoPNetとProtoTreeを用いて,ビジュアル化手法の詳細な分析を行う。
2つのきめ細かいデータセット(CUB-200-2011とStanford Cars)を用いて、これらの手法が画像内の関心領域を正しく識別せず、従ってモデル動作を反映しないことを示す。
次に,削除基準を用いて,Smoothgrads や PRP などの塩分濃度法がより忠実な画像パッチを提供することを示す。
また,いくつかのデータセット(例えば CUB-200-2011)で提供されるオブジェクトのセグメンテーションに基づく新しい関連度尺度を提案し,ProtoPNet と ProtoTree が生成した不正確なパッチの可視化により,より忠実な手法を用いることでバイアスを軽減できることを示す。
最後に,同じ可視化方法を共有する他のプロトタイプモデルに対する知見の意義について考察する。
関連論文リスト
- Correlation Weighted Prototype-based Self-Supervised One-Shot Segmentation of Medical Images [12.365801596593936]
医用画像セグメンテーションは、十分な注釈付きデータが入手できない領域の1つである。
スーパーピクセルから生成された擬似ラベルを用いた,プロトタイプベースのワンショット学習フレームワークを提案する。
提案手法は,最先端の手法と同等に機能することを示す。
論文 参考訳(メタデータ) (2024-08-12T15:38:51Z) - Exploring Robust Features for Few-Shot Object Detection in Satellite
Imagery [17.156864650143678]
従来の2段階アーキテクチャに基づく数発の物体検出器を開発した。
大規模な事前訓練モデルを使用して、クラス参照の埋め込みやプロトタイプを構築する。
課題と稀なオブジェクトを含む2つのリモートセンシングデータセットの評価を行う。
論文 参考訳(メタデータ) (2024-03-08T15:20:27Z) - Sanity checks for patch visualisation in prototype-based image
classification [0.0]
本稿では,ProtoPNetとProtoTreeで実装された可視化手法が画像内の関心領域を正しく識別していないことを示す。
また、より忠実な画像パッチを提供する他のサリエンシ手法を使用することで、この問題を緩和できることを定量的に示す。
論文 参考訳(メタデータ) (2023-10-25T08:13:02Z) - COSE: A Consistency-Sensitivity Metric for Saliency on Image
Classification [21.3855970055692]
本稿では,画像分類タスクにおいて,視覚の先行値を用いてサリエンシ手法の性能を評価する指標について述べる。
しかし,ほとんどの手法では,畳み込みモデルよりもトランスフォーマーモデルの方がよく説明できる。
論文 参考訳(メタデータ) (2023-09-20T01:06:44Z) - PDiscoNet: Semantically consistent part discovery for fine-grained
recognition [62.12602920807109]
画像レベルのクラスラベルのみを用いて,対象部品の発見を推奨する先行情報とともにPDiscoNetを提案する。
CUB,CelebA,PartImageNet で得られた結果から,提案手法は従来手法よりもかなり優れた部分発見性能が得られることがわかった。
論文 参考訳(メタデータ) (2023-09-06T17:19:29Z) - DisPositioNet: Disentangled Pose and Identity in Semantic Image
Manipulation [83.51882381294357]
DisPositioNetは、シーングラフを用いた画像操作のタスクに対して、各オブジェクトのアンタングル表現を学習するモデルである。
我々のフレームワークは、グラフ内の特徴表現と同様に、変分潜在埋め込みの切り離しを可能にする。
論文 参考訳(メタデータ) (2022-11-10T11:47:37Z) - Rethinking Semantic Segmentation: A Prototype View [126.59244185849838]
学習不可能なプロトタイプをベースとした非パラメトリックセマンティックセマンティックセマンティクスモデルを提案する。
我々のフレームワークは、いくつかのデータセットに対して魅力的な結果をもたらす。
この作業が、現在のデファクトセマンティックセグメンテーションモデル設計を再考することを期待しています。
論文 参考訳(メタデータ) (2022-03-28T21:15:32Z) - Attentional Prototype Inference for Few-Shot Segmentation [128.45753577331422]
数発のセグメンテーションのための確率的潜在変数フレームワークである注意型プロトタイプ推論(API)を提案する。
我々は各オブジェクトカテゴリのプロトタイプを表現するためにグローバル潜在変数を定義し、確率分布としてモデル化する。
我々は4つのベンチマークで広範な実験を行い、提案手法は最先端のプロトタイプベースの手法よりも、少なくとも競争力があり、しばしば優れた性能が得られる。
論文 参考訳(メタデータ) (2021-05-14T06:58:44Z) - ProtoPShare: Prototype Sharing for Interpretable Image Classification
and Similarity Discovery [9.36640530008137]
本稿では,プロトタイプ部品のパラダイムを取り入れた自己説明手法であるProtoPShareを紹介する。
ProtoPShareの主な特徴は、データ依存のマージプルーニングのおかげで、クラス間でプロトタイプ部品を効率的に共有できることである。
CUB-200-2011とStanford Carsの2つのデータセットでこの結果を検証する。
論文 参考訳(メタデータ) (2020-11-29T11:23:05Z) - Synthesizing the Unseen for Zero-shot Object Detection [72.38031440014463]
そこで本研究では,視覚領域における視覚的特徴と視覚的対象の両方を学習するために,視覚的特徴を合成することを提案する。
クラスセマンティックスを用いた新しい生成モデルを用いて特徴を生成するだけでなく,特徴を識別的に分離する。
論文 参考訳(メタデータ) (2020-10-19T12:36:11Z) - Part-aware Prototype Network for Few-shot Semantic Segmentation [50.581647306020095]
本稿では,プロトタイプ表現に基づく新規な数ショットセマンティックセマンティックセマンティクスフレームワークを提案する。
私たちのキーとなるアイデアは、全体論的なクラス表現を、部分認識型プロトタイプのセットに分解することです。
提案する部分認識型プロトタイプを生成・拡張する新しいグラフニューラルネットワークモデルを開発した。
論文 参考訳(メタデータ) (2020-07-13T11:03:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。