論文の概要: This Looks Like Those: Illuminating Prototypical Concepts Using Multiple
Visualizations
- arxiv url: http://arxiv.org/abs/2310.18589v1
- Date: Sat, 28 Oct 2023 04:54:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 17:42:11.831220
- Title: This Looks Like Those: Illuminating Prototypical Concepts Using Multiple
Visualizations
- Title(参考訳): 複数のビジュアライゼーションを用いた原型的概念の照明
- Authors: Chiyu Ma, Brandon Zhao, Chaofan Chen, Cynthia Rudin
- Abstract要約: ProtoConceptsは,ディープラーニングとケースベース推論を組み合わせた画像分類手法である。
提案手法は,プロトタイプベースネットワークのアーキテクチャを改良し,複数のイメージパッチを用いて視覚化された概念を学習する。
実験の結果,この手法は,既存の画像分類網の広範な変更として適用可能であることがわかった。
- 参考スコア(独自算出の注目度): 19.724372592639774
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present ProtoConcepts, a method for interpretable image classification
combining deep learning and case-based reasoning using prototypical parts.
Existing work in prototype-based image classification uses a ``this looks like
that'' reasoning process, which dissects a test image by finding prototypical
parts and combining evidence from these prototypes to make a final
classification. However, all of the existing prototypical part-based image
classifiers provide only one-to-one comparisons, where a single training image
patch serves as a prototype to compare with a part of our test image. With
these single-image comparisons, it can often be difficult to identify the
underlying concept being compared (e.g., ``is it comparing the color or the
shape?''). Our proposed method modifies the architecture of prototype-based
networks to instead learn prototypical concepts which are visualized using
multiple image patches. Having multiple visualizations of the same prototype
allows us to more easily identify the concept captured by that prototype (e.g.,
``the test image and the related training patches are all the same shade of
blue''), and allows our model to create richer, more interpretable visual
explanations. Our experiments show that our ``this looks like those'' reasoning
process can be applied as a modification to a wide range of existing
prototypical image classification networks while achieving comparable accuracy
on benchmark datasets.
- Abstract(参考訳): 本稿では,深層学習とケースベース推論を組み合わせた画像分類法であるProtoConceptsを提案する。
プロトタイプベースの画像分類における既存の作業は、プロトタイプの部品を発見し、これらのプロトタイプから証拠を組み合わせて最終分類をすることで、テストイメージを識別する ` This looks that''' 推論プロセスを使用している。
しかし、既存のプロトタイプ部分ベース画像分類器はすべて、1対1の比較のみを提供しており、1つのトレーニング画像パッチがプロトタイプとして機能し、テスト画像の一部と比較する。
これらの単像比較では、比較される概念(例えば、色や形を比較するのは「?」など)を特定することはしばしば困難である。
提案手法はプロトタイプベースネットワークのアーキテクチャを改良し,複数のイメージパッチを用いて視覚化したプロトタイプの概念を学習する。
同じプロトタイプの複数の視覚化を行うことで、プロトタイプがキャプチャしたコンセプト(例えば、‘テストイメージと関連するトレーニングパッチはすべて同じ青’')をより容易に識別し、よりリッチで解釈可能な視覚的説明を作成することができます。
実験により,我々の `This' 推論プロセスは,ベンチマークデータセットにおいて同等の精度を達成しつつ,既存のプロトタイプ画像分類網の幅広い変更に適用可能であることが示された。
関連論文リスト
- ProtoArgNet: Interpretable Image Classification with Super-Prototypes
and Argumentation [Technical Report] [19.35742377374265]
ProtoArgNetは、画像分類のための新しい解釈可能なディープニューラルネットワークである。
原型部分と単一原型クラス表現を結合した超原型を用いる。
画像内の異なる領域からの異なる原型部分間の空間的関係を認識することができる。
論文 参考訳(メタデータ) (2023-11-26T21:52:47Z) - Sanity checks for patch visualisation in prototype-based image
classification [0.0]
本稿では,ProtoPNetとProtoTreeで実装された可視化手法が画像内の関心領域を正しく識別していないことを示す。
また、より忠実な画像パッチを提供する他のサリエンシ手法を使用することで、この問題を緩和できることを定量的に示す。
論文 参考訳(メタデータ) (2023-10-25T08:13:02Z) - With a Little Help from your own Past: Prototypical Memory Networks for
Image Captioning [47.96387857237473]
我々は、他のトレーニングサンプルを処理しながら得られたアクティベーションに注意を向けるネットワークを考案した。
私たちのメモリは、プロトタイプベクトルの定義を通じて過去のキーと値の分布をモデル化します。
本研究では,エンコーダ・デコーダ変換器の性能を3.7 CIDErポイント向上できることを示す。
論文 参考訳(メタデータ) (2023-08-23T18:53:00Z) - Rethinking Person Re-identification from a Projection-on-Prototypes
Perspective [84.24742313520811]
検索タスクとしてのPerson Re-IDentification(Re-ID)は,過去10年間で大きな発展を遂げてきた。
本稿では,新しいベースライン ProNet を提案する。
4つのベンチマークの実験では、提案したProNetは単純だが有効であり、以前のベースラインを大きく上回っている。
論文 参考訳(メタデータ) (2023-08-21T13:38:10Z) - Rethinking Semantic Segmentation: A Prototype View [126.59244185849838]
学習不可能なプロトタイプをベースとした非パラメトリックセマンティックセマンティックセマンティクスモデルを提案する。
我々のフレームワークは、いくつかのデータセットに対して魅力的な結果をもたらす。
この作業が、現在のデファクトセマンティックセグメンテーションモデル設計を再考することを期待しています。
論文 参考訳(メタデータ) (2022-03-28T21:15:32Z) - Interpretable Image Classification with Differentiable Prototypes
Assignment [7.660883761395447]
クラスが共有するプロトタイプのプールを備えた解釈可能な画像分類モデルであるProtoPoolを紹介する。
プロトタイプを特定のクラスに完全に微分可能な割り当てを導入することで得られる。
我々は,CUB-200-2011とStanford Carsのデータセットにおいて,ProtoPoolが最先端の精度を得ることを示す。
論文 参考訳(メタデータ) (2021-12-06T10:03:32Z) - Deformable ProtoPNet: An Interpretable Image Classifier Using Deformable Prototypes [7.8515366468594765]
本稿では,Deformable Part Network(Deformable ProtoPNet)を提案する。
このモデルは、学習中に学習したプロトタイプと比較し、入力画像の分類を行い、「これのように見える」という形で説明を与える。
論文 参考訳(メタデータ) (2021-11-29T22:38:13Z) - APANet: Adaptive Prototypes Alignment Network for Few-Shot Semantic
Segmentation [56.387647750094466]
Few-shotのセマンティックセマンティックセマンティクスは、指定されたクエリイメージに、ラベル付きサポートイメージのみで、新規クラスのオブジェクトをセグメントすることを目的としている。
ほとんどの高度なソリューションは、各クエリ機能を学習したクラス固有のプロトタイプにマッチさせることでセグメンテーションを実行するメトリクス学習フレームワークを利用している。
本稿では,クラス固有およびクラス非依存のプロトタイプを導入することで,適応型プロトタイプ表現を提案する。
論文 参考訳(メタデータ) (2021-11-24T04:38:37Z) - Aligning Visual Prototypes with BERT Embeddings for Few-Shot Learning [48.583388368897126]
ほとんどショット学習は、これまで目に見えないイメージのカテゴリを認識するための学習である。
画像クラスの名称を考慮に入れた手法を提案する。
論文 参考訳(メタデータ) (2021-05-21T08:08:28Z) - SCNet: Enhancing Few-Shot Semantic Segmentation by Self-Contrastive
Background Prototypes [56.387647750094466]
Few-shot セマンティックセマンティックセマンティクスは,クエリイメージ内の新規クラスオブジェクトを,アノテーション付きの例で分割することを目的としている。
先進的なソリューションのほとんどは、各ピクセルを学習した前景のプロトタイプに合わせることでセグメンテーションを行うメトリクス学習フレームワークを利用している。
このフレームワークは、前景プロトタイプのみとのサンプルペアの不完全な構築のために偏った分類に苦しんでいます。
論文 参考訳(メタデータ) (2021-04-19T11:21:47Z) - This Looks Like That, Because ... Explaining Prototypes for
Interpretable Image Recognition [4.396860522241307]
プロトタイプを説明するべきだ、と私たちは主張する。
本手法は,色調,形状,テクスチャ,コントラスト,彩度の影響を定量化し,プロトタイプの意味を明らかにする。
このような「誤解を招く」プロトタイプを説明することで、プロトタイプベースの分類モデルの解釈可能性とシミュラビリティを向上させることができる。
論文 参考訳(メタデータ) (2020-11-05T14:43:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。