論文の概要: Interpretable Image Classification via Non-parametric Part Prototype Learning
- arxiv url: http://arxiv.org/abs/2503.10247v1
- Date: Thu, 13 Mar 2025 10:46:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 15:52:51.934441
- Title: Interpretable Image Classification via Non-parametric Part Prototype Learning
- Title(参考訳): 非パラメトリック部分プロトタイプ学習による解釈可能な画像分類
- Authors: Zhijie Zhu, Lei Fan, Maurice Pagnucco, Yang Song,
- Abstract要約: 解釈可能な意思決定プロセスで画像を分類することは、コンピュータビジョンにおける長年の問題である。
近年、自己説明可能なニューラルネットワークのアプローチとして、プロトタイプのPart Networksが注目を集めている。
本稿では,各クラスに対して意味的に固有のオブジェクト部品の集合を学習する,部分的解釈可能な画像分類のためのフレームワークを提案する。
- 参考スコア(独自算出の注目度): 14.390730075612248
- License:
- Abstract: Classifying images with an interpretable decision-making process is a long-standing problem in computer vision. In recent years, Prototypical Part Networks has gained traction as an approach for self-explainable neural networks, due to their ability to mimic human visual reasoning by providing explanations based on prototypical object parts. However, the quality of the explanations generated by these methods leaves room for improvement, as the prototypes usually focus on repetitive and redundant concepts. Leveraging recent advances in prototype learning, we present a framework for part-based interpretable image classification that learns a set of semantically distinctive object parts for each class, and provides diverse and comprehensive explanations. The core of our method is to learn the part-prototypes in a non-parametric fashion, through clustering deep features extracted from foundation vision models that encode robust semantic information. To quantitatively evaluate the quality of explanations provided by ProtoPNets, we introduce Distinctiveness Score and Comprehensiveness Score. Through evaluation on CUB-200-2011, Stanford Cars and Stanford Dogs datasets, we show that our framework compares favourably against existing ProtoPNets while achieving better interpretability. Code is available at: https://github.com/zijizhu/proto-non-param.
- Abstract(参考訳): 解釈可能な意思決定プロセスで画像を分類することは、コンピュータビジョンにおける長年の問題である。
近年, 自己説明可能なニューラルネットワークのアプローチとして, 原型的対象部分に基づく説明を提供することで, 人間の視覚的推論を模倣する能力によって, 原型的部分ネットワークが注目を集めている。
しかしながら、これらの手法によって生成された説明の質は改善の余地を残しており、プロトタイプは通常反復的で冗長な概念に焦点を当てている。
プロトタイプ学習の最近の進歩を生かして,各クラスごとに意味的に固有のオブジェクト部品の集合を学習し,多種多様な包括的説明を提供する,部分ベースの解釈可能な画像分類のためのフレームワークを提案する。
本手法の中核は,ロバストな意味情報を符号化する基盤視覚モデルから抽出した深い特徴をクラスタリングすることで,非パラメトリックな方法で部分プロトタイプを学習することである。
ProtoPNetsが提供する説明の質を定量的に評価するために,識別性スコアと包括性スコアを導入する。
CUB-200-2011、Stanford Cars、Stanford Dogsのデータセットの評価を通じて、我々のフレームワークは既存のProtoPNetと良好に比較でき、より優れた解釈性を実現していることを示す。
コードは、https://github.com/zijizhu/proto-non-param.comで入手できる。
関連論文リスト
- COMIX: Compositional Explanations using Prototypes [46.15031477955461]
本稿では,機械表現を人間の理解と整合させる手法を提案する。
提案手法はCOMIXと呼ばれ,学習概念に基づいて領域に分解することで画像の分類を行う。
提案手法は説明の完全性を提供し,その効率性は他の本質的に解釈可能なアーキテクチャと競合することを示す。
論文 参考訳(メタデータ) (2025-01-10T15:40:31Z) - InfoDisent: Explainability of Image Classification Models by Information Disentanglement [10.89767277352967]
本稿では,情報ボトルネックの原理に基づく説明可能性のハイブリッドアプローチであるInfoDisentを紹介する。
本稿では,各種データセットを対象とした計算実験とユーザスタディを通じてInfoDisentの有効性を示す。
論文 参考訳(メタデータ) (2024-09-16T14:39:15Z) - Enhanced Prototypical Part Network (EPPNet) For Explainable Image Classification Via Prototypes [16.528373143163275]
画像分類のためのEPPNet(Enhanced Prototypeal Part Network)を導入する。
EPPNetは、分類結果を説明するために使用可能な関連するプロトタイプを発見しながら、強力なパフォーマンスを実現している。
CUB-200-2011 データセットによる評価の結果,EPPNet は最先端の xAI ベースの手法よりも優れていた。
論文 参考訳(メタデータ) (2024-08-08T17:26:56Z) - ProtoS-ViT: Visual foundation models for sparse self-explainable classifications [0.6249768559720122]
プロトタイプネットワークは、概念の線形和に基づいて本質的に説明可能なモデルを構築することを目的としている。
この研究はまず、現在の原型ネットワークにおける欠点を識別できる量的および質的なメトリクスの広範なセットを提案する。
その後、コンパクトな説明を提供する新しいアーキテクチャを導入し、説明品質の観点から現在の原型モデルより優れている。
論文 参考訳(メタデータ) (2024-06-14T13:36:30Z) - MCPNet: An Interpretable Classifier via Multi-Level Concept Prototypes [24.28807025839685]
我々は、低レベルの特徴の意思決定プロセスに関する洞察が欠如している説明は、完全に忠実でも有用でもないと論じる。
本稿では,クラス認識概念分布(CCD)の損失を通じて,分類目的のマルチレベル概念のプロトタイプ分布を学習・調整する新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2024-04-13T11:13:56Z) - Neural Clustering based Visual Representation Learning [61.72646814537163]
クラスタリングは、機械学習とデータ分析における最も古典的なアプローチの1つである。
本稿では,特徴抽出をデータから代表者を選択するプロセスとみなすクラスタリング(FEC)による特徴抽出を提案する。
FECは、個々のクラスタにピクセルをグループ化して抽象的な代表を配置し、現在の代表とピクセルの深い特徴を更新する。
論文 参考訳(メタデータ) (2024-03-26T06:04:50Z) - Unsupervised Part Discovery from Contrastive Reconstruction [90.88501867321573]
自己監督型視覚表現学習の目標は、強く伝達可能な画像表現を学習することである。
対象部分の発見とセグメンテーションに対する教師なしアプローチを提案する。
本手法は, 細粒度, 視覚的に異なるカテゴリ間でセマンティックな部分を生成する。
論文 参考訳(メタデータ) (2021-11-11T17:59:42Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z) - Region Comparison Network for Interpretable Few-shot Image
Classification [97.97902360117368]
新しいクラスのモデルをトレーニングするために、ラベル付きサンプルの限られた数だけを効果的に活用するための画像分類が提案されている。
本研究では,領域比較ネットワーク (RCN) と呼ばれる距離学習に基づく手法を提案する。
また,タスクのレベルからカテゴリへの解釈可能性の一般化も提案する。
論文 参考訳(メタデータ) (2020-09-08T07:29:05Z) - Part-aware Prototype Network for Few-shot Semantic Segmentation [50.581647306020095]
本稿では,プロトタイプ表現に基づく新規な数ショットセマンティックセマンティックセマンティクスフレームワークを提案する。
私たちのキーとなるアイデアは、全体論的なクラス表現を、部分認識型プロトタイプのセットに分解することです。
提案する部分認識型プロトタイプを生成・拡張する新しいグラフニューラルネットワークモデルを開発した。
論文 参考訳(メタデータ) (2020-07-13T11:03:09Z) - Prototypical Contrastive Learning of Unsupervised Representations [171.3046900127166]
原型コントラスト学習(Prototypeal Contrastive Learning, PCL)は、教師なし表現学習法である。
PCLは暗黙的にデータのセマンティック構造を学習された埋め込み空間にエンコードする。
PCLは、複数のベンチマークで最先端のインスタンスワイド・コントラスト学習法より優れている。
論文 参考訳(メタデータ) (2020-05-11T09:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。