論文の概要: ProtoSolo: Interpretable Image Classification via Single-Prototype Activation
- arxiv url: http://arxiv.org/abs/2506.19808v3
- Date: Thu, 31 Jul 2025 23:49:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-04 14:06:53.42546
- Title: ProtoSolo: Interpretable Image Classification via Single-Prototype Activation
- Title(参考訳): ProtoSolo:シングルプロトタイプアクティベーションによる解釈可能な画像分類
- Authors: Yitao Peng, Lianghua He, Hongzhou Chen,
- Abstract要約: 本稿では,ProtoSoloと呼ばれる画像分類のための新しい解釈可能な深層アーキテクチャを提案する。
ProtoSoloは、分類を完了するには1つのプロトタイプのみをアクティベートする必要がある。
CUB-200-2011およびStanford Carsデータセットの実験では、ProtoSoloは分類精度において最先端の解釈可能な手法と一致することを示した。
- 参考スコア(独自算出の注目度): 3.720945628294273
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although interpretable prototype networks have improved the transparency of deep learning image classification, the need for multiple prototypes in collaborative decision-making increases cognitive complexity and hinders user understanding. To solve this problem, this paper proposes a novel interpretable deep architecture for image classification, called ProtoSolo. Unlike existing prototypical networks, ProtoSolo requires activation of only a single prototype to complete the classification. This design significantly simplifies interpretation, as the explanation for each class requires displaying only the prototype with the highest similarity score and its corresponding feature map. Additionally, the traditional full-channel feature vector is replaced with a feature map for similarity comparison and prototype learning, enabling the use of richer global information within a single-prototype activation decision. A non-projection prototype learning strategy is also introduced to preserve the association between the prototype and image patch while avoiding abrupt structural changes in the network caused by projection, which can affect classification performance. Experiments on the CUB-200-2011 and Stanford Cars datasets demonstrate that ProtoSolo matches state-of-the-art interpretable methods in classification accuracy while achieving the lowest cognitive complexity. The code is available at https://github.com/pyt19/ProtoSolo.
- Abstract(参考訳): 解釈可能なプロトタイプネットワークは、ディープラーニング画像分類の透明性を向上させる一方で、協調的な意思決定における複数のプロトタイプの必要性は、認知の複雑さを高め、ユーザの理解を妨げる。
この問題を解決するために,ProtoSoloと呼ばれる画像分類のための新しい解釈可能な深層アーキテクチャを提案する。
既存のプロトタイプネットワークとは異なり、ProtoSoloは分類を完了するために単一のプロトタイプのみをアクティベートする必要がある。
この設計は、各クラスの説明では、最も類似度が高いプロトタイプと対応する特徴マップのみを表示する必要があるため、解釈を著しく単純化する。
さらに、従来のフルチャネル特徴ベクトルを類似性比較とプロトタイプ学習のための特徴マップに置き換えることで、単一プロトタイプアクティベーション決定におけるよりリッチなグローバル情報の利用を可能にする。
また、プロジェクションによるネットワークの急激な構造変化を回避しつつ、プロトタイプとイメージパッチの関連性を維持するために、非プロジェクションプロトタイプ学習戦略を導入する。
CUB-200-2011とStanford Carsのデータセットの実験では、ProtoSoloは最小の認知複雑性を達成しつつ、分類精度において最先端の解釈可能な手法と一致することを示した。
コードはhttps://github.com/pyt19/ProtoSoloで入手できる。
関連論文リスト
- Multi-Scale Grouped Prototypes for Interpretable Semantic Segmentation [7.372346036256517]
意味的セグメンテーションを解釈可能なものにするための、有望なアプローチとして、プロトタイプ的な部分学習が登場している。
本稿では,多スケール画像表現を利用した意味的セグメンテーションの解釈手法を提案する。
Pascal VOC,Cityscapes,ADE20Kで行った実験により,提案手法はモデルの疎結合性を高め,既存のプロトタイプ手法よりも解釈可能性を高め,非解釈可能なモデルとの性能ギャップを狭めることを示した。
論文 参考訳(メタデータ) (2024-09-14T17:52:59Z) - ProtoArgNet: Interpretable Image Classification with Super-Prototypes and Argumentation [Technical Report] [17.223442899324482]
ProtoArgNetは、原型的部分学習の精神における画像分類のための、解釈可能な新しいディープニューラルネットワークである。
ProtoArgNetは、prototypeal-partsを統一されたクラス表現に組み合わせたスーパープロトタイプを使用する。
我々は、ProtoArgNetが最先端のプロトタイプ・パートラーニングアプローチより優れているいくつかのデータセットを実証する。
論文 参考訳(メタデータ) (2023-11-26T21:52:47Z) - This Looks Like Those: Illuminating Prototypical Concepts Using Multiple
Visualizations [19.724372592639774]
ProtoConceptsは,ディープラーニングとケースベース推論を組み合わせた画像分類手法である。
提案手法は,プロトタイプベースネットワークのアーキテクチャを改良し,複数のイメージパッチを用いて視覚化された概念を学習する。
実験の結果,この手法は,既存の画像分類網の広範な変更として適用可能であることがわかった。
論文 参考訳(メタデータ) (2023-10-28T04:54:48Z) - PDiscoNet: Semantically consistent part discovery for fine-grained
recognition [62.12602920807109]
画像レベルのクラスラベルのみを用いて,対象部品の発見を推奨する先行情報とともにPDiscoNetを提案する。
CUB,CelebA,PartImageNet で得られた結果から,提案手法は従来手法よりもかなり優れた部分発見性能が得られることがわかった。
論文 参考訳(メタデータ) (2023-09-06T17:19:29Z) - Rethinking Person Re-identification from a Projection-on-Prototypes
Perspective [84.24742313520811]
検索タスクとしてのPerson Re-IDentification(Re-ID)は,過去10年間で大きな発展を遂げてきた。
本稿では,新しいベースライン ProNet を提案する。
4つのベンチマークの実験では、提案したProNetは単純だが有効であり、以前のベースラインを大きく上回っている。
論文 参考訳(メタデータ) (2023-08-21T13:38:10Z) - Unicom: Universal and Compact Representation Learning for Image
Retrieval [65.96296089560421]
大規模LAION400Mを,CLIPモデルにより抽出された共同テキストと視覚的特徴に基づいて,100万の擬似クラスにクラスタリングする。
このような矛盾を緩和するために、我々は、マージンベースのソフトマックス損失を構築するために、ランダムにクラス間の部分的なプロトタイプを選択する。
提案手法は,複数のベンチマークにおいて,教師なし,教師なしの画像検索手法よりも優れていた。
論文 参考訳(メタデータ) (2023-04-12T14:25:52Z) - Rethinking Semantic Segmentation: A Prototype View [126.59244185849838]
学習不可能なプロトタイプをベースとした非パラメトリックセマンティックセマンティックセマンティクスモデルを提案する。
我々のフレームワークは、いくつかのデータセットに対して魅力的な結果をもたらす。
この作業が、現在のデファクトセマンティックセグメンテーションモデル設計を再考することを期待しています。
論文 参考訳(メタデータ) (2022-03-28T21:15:32Z) - Interpretable Image Classification with Differentiable Prototypes
Assignment [7.660883761395447]
クラスが共有するプロトタイプのプールを備えた解釈可能な画像分類モデルであるProtoPoolを紹介する。
プロトタイプを特定のクラスに完全に微分可能な割り当てを導入することで得られる。
我々は,CUB-200-2011とStanford Carsのデータセットにおいて,ProtoPoolが最先端の精度を得ることを示す。
論文 参考訳(メタデータ) (2021-12-06T10:03:32Z) - APANet: Adaptive Prototypes Alignment Network for Few-Shot Semantic
Segmentation [56.387647750094466]
Few-shotのセマンティックセマンティックセマンティクスは、指定されたクエリイメージに、ラベル付きサポートイメージのみで、新規クラスのオブジェクトをセグメントすることを目的としている。
ほとんどの高度なソリューションは、各クエリ機能を学習したクラス固有のプロトタイプにマッチさせることでセグメンテーションを実行するメトリクス学習フレームワークを利用している。
本稿では,クラス固有およびクラス非依存のプロトタイプを導入することで,適応型プロトタイプ表現を提案する。
論文 参考訳(メタデータ) (2021-11-24T04:38:37Z) - Dual Prototypical Contrastive Learning for Few-shot Semantic
Segmentation [55.339405417090084]
本稿では,FSSタスクに適合する2つの特徴的コントラスト学習手法を提案する。
第一の考え方は、プロトタイプの特徴空間におけるクラス内距離を減少させながら、クラス間距離を増やすことで、プロトタイプをより差別的にすることである。
提案手法は,PASCAL-5iおよびCOCO-20iデータセット上で,最先端のFSS手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-09T08:14:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。