論文の概要: Learning Support and Trivial Prototypes for Interpretable Image
Classification
- arxiv url: http://arxiv.org/abs/2301.04011v1
- Date: Sun, 8 Jan 2023 09:27:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 16:54:13.539172
- Title: Learning Support and Trivial Prototypes for Interpretable Image
Classification
- Title(参考訳): 解釈可能な画像分類のための学習支援と試行プロトタイプ
- Authors: Chong Wang, Yuyuan Liu, Yuanhong Chen, Fengbei Liu, Yu Tian, Davis J.
McCarthy, Helen Frazer, Gustavo Carneiro
- Abstract要約: Prototypeal part network (ProtoPNet) 法は解釈可能な分類を実現するために設計されている。
特徴空間の分類境界付近に位置する支援プロトタイプを学習するための新しい手法を提案する。
- 参考スコア(独自算出の注目度): 21.029011835100587
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Prototypical part network (ProtoPNet) methods have been designed to achieve
interpretable classification by associating predictions with a set of training
prototypes, which we refer to as trivial (i.e., easy-to-learn) prototypes
because they are trained to lie far from the classification boundary in the
feature space. Note that it is possible to make an analogy between ProtoPNet
and support vector machine (SVM) given that the classification from both
methods relies on computing similarity with a set of training points (i.e.,
trivial prototypes in ProtoPNet, and support vectors in SVM). However, while
trivial prototypes are located far from the classification boundary, support
vectors are located close to this boundary, and we argue that this discrepancy
with the well-established SVM theory can result in ProtoPNet models with
suboptimal classification accuracy. In this paper, we aim to improve the
classification accuracy of ProtoPNet with a new method to learn support
prototypes that lie near the classification boundary in the feature space, as
suggested by the SVM theory. In addition, we target the improvement of
classification interpretability with a new model, named ST-ProtoPNet, which
exploits our support prototypes and the trivial prototypes to provide
complementary interpretability information. Experimental results on
CUB-200-2011, Stanford Cars, and Stanford Dogs datasets demonstrate that the
proposed method achieves state-of-the-art classification accuracy and produces
more visually meaningful and diverse prototypes.
- Abstract(参考訳): 原型部分ネットワーク (ProtoPNet) 法は, 特徴空間の分類境界から遠く離れた位置にあるように訓練されることから, 自明な(簡単に学習できる)プロトタイプと呼ぶ一連のトレーニングプロトタイプと予測を関連付けることによって, 解釈可能な分類を実現するように設計されている。
両方の方法からの分類は、一連のトレーニングポイント(つまり、protopnetにおける自明なプロトタイプと、svmにおけるサポートベクター)との類似性を計算することに依存しているため、protopnetとサポートベクターマシン(svm)の類似化が可能である。
しかしながら、自明なプロトタイプは分類境界から遠く離れた位置にあるが、支持ベクトルはこの境界に近い位置にあり、よく確立されたSVM理論とのこの相違は、最適な分類精度を持つ ProtoPNet モデルをもたらすと論じる。
本稿では,SVM理論により提案される特徴空間の分類境界付近にある支援プロトタイプを学習するための新しい手法により,ProtoPNetの分類精度を向上させることを目的とする。
さらに,新しいモデルであるst-protopnetを用いて分類可能性の向上を目標とし,サポートプロトタイプと自明なプロトタイプを利用して補完的解釈情報を提供する。
CUB-200-2011、Stanford Cars、Stanford Dogsのデータセットによる実験結果から、提案手法は最先端の分類精度を達成し、より視覚的に有意義で多様なプロトタイプを生成することを示した。
関連論文リスト
- An Enhanced Federated Prototype Learning Method under Domain Shift [36.73020712815063]
Federated Learning (FL)は、プライベートデータを共有することなく、協調的な機械学習トレーニングを可能にする。
最近の論文では、分散対応のデュアルレベルプロトタイプクラスタリングを導入し、新しい$alpha$-sparsityプロトタイプロスを用いる。
Digit-5、Office-10、DomainNetデータセットの評価は、我々の手法が既存のアプローチよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-09-27T09:28:27Z) - Multi-Scale Grouped Prototypes for Interpretable Semantic Segmentation [7.372346036256517]
意味的セグメンテーションを解釈可能なものにするための、有望なアプローチとして、プロトタイプ的な部分学習が登場している。
本稿では,多スケール画像表現を利用した意味的セグメンテーションの解釈手法を提案する。
Pascal VOC,Cityscapes,ADE20Kで行った実験により,提案手法はモデルの疎結合性を高め,既存のプロトタイプ手法よりも解釈可能性を高め,非解釈可能なモデルとの性能ギャップを狭めることを示した。
論文 参考訳(メタデータ) (2024-09-14T17:52:59Z) - Rethinking Few-shot 3D Point Cloud Semantic Segmentation [62.80639841429669]
本稿では,FS-PCSによる3Dポイント・クラウドセマンティックセマンティックセグメンテーションについて再検討する。
我々は、最先端の2つの重要な問題、前景の漏洩とスパースポイントの分布に焦点をあてる。
これらの問題に対処するために、新しいベンチマークを構築するための標準化されたFS-PCS設定を導入する。
論文 参考訳(メタデータ) (2024-03-01T15:14:47Z) - Rethinking Semantic Segmentation: A Prototype View [126.59244185849838]
学習不可能なプロトタイプをベースとした非パラメトリックセマンティックセマンティックセマンティクスモデルを提案する。
我々のフレームワークは、いくつかのデータセットに対して魅力的な結果をもたらす。
この作業が、現在のデファクトセマンティックセグメンテーションモデル設計を再考することを期待しています。
論文 参考訳(メタデータ) (2022-03-28T21:15:32Z) - Dual Prototypical Contrastive Learning for Few-shot Semantic
Segmentation [55.339405417090084]
本稿では,FSSタスクに適合する2つの特徴的コントラスト学習手法を提案する。
第一の考え方は、プロトタイプの特徴空間におけるクラス内距離を減少させながら、クラス間距離を増やすことで、プロトタイプをより差別的にすることである。
提案手法は,PASCAL-5iおよびCOCO-20iデータセット上で,最先端のFSS手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-09T08:14:50Z) - LFD-ProtoNet: Prototypical Network Based on Local Fisher Discriminant
Analysis for Few-shot Learning [98.64231310584614]
Prototypeal Network (ProtoNet) は、各クラスのプロトタイプ表現までの距離を用いてメートル法学習と分類を行う、数発の学習フレームワークである。
提案手法の有用性は,理論上は予測されるリスクバウンドを提供し,MiniImageNetとタイレッドImageNetに優れた分類精度を実証的に示すことによって示される。
論文 参考訳(メタデータ) (2020-06-15T11:56:30Z) - Fine-Grained Visual Classification with Efficient End-to-end
Localization [49.9887676289364]
本稿では,エンド・ツー・エンドの設定において,分類ネットワークと融合可能な効率的なローカライゼーションモジュールを提案する。
我々は,CUB200-2011,Stanford Cars,FGVC-Aircraftの3つのベンチマークデータセット上で,新しいモデルを評価する。
論文 参考訳(メタデータ) (2020-05-11T14:07:06Z) - Prototypical Contrastive Learning of Unsupervised Representations [171.3046900127166]
原型コントラスト学習(Prototypeal Contrastive Learning, PCL)は、教師なし表現学習法である。
PCLは暗黙的にデータのセマンティック構造を学習された埋め込み空間にエンコードする。
PCLは、複数のベンチマークで最先端のインスタンスワイド・コントラスト学習法より優れている。
論文 参考訳(メタデータ) (2020-05-11T09:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。