論文の概要: Deformable ProtoPNet: An Interpretable Image Classifier Using Deformable
Prototypes
- arxiv url: http://arxiv.org/abs/2111.15000v1
- Date: Mon, 29 Nov 2021 22:38:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-01 13:28:45.818087
- Title: Deformable ProtoPNet: An Interpretable Image Classifier Using Deformable
Prototypes
- Title(参考訳): Deformable ProtoPNet:Deformable Prototypesを用いた解釈可能な画像分類器
- Authors: Jon Donnelly, Alina Jade Barnett, Chaofan Chen
- Abstract要約: 空間的に柔軟なプロトタイプを提供するケースベース解釈型ニューラルネットワークを提案する。
Deformable ProtoPNetでは、各プロトタイプは、入力画像に応じて相対的な空間位置を適応的に変更するいくつかのプロトタイプ部品で構成されている。
提案手法は, 競争精度を向上し, よりコンテキストの高い説明を与え, 訓練が容易であり, コンピュータビジョンに解釈可能なモデルをより広く活用することができる。
- 参考スコア(独自算出の注目度): 2.3096751699592137
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning has been widely adopted in many domains, including
high-stakes applications such as healthcare, finance, and criminal justice. To
address concerns of fairness, accountability and transparency, predictions made
by machine learning models in these critical domains must be interpretable. One
line of work approaches this challenge by integrating the power of deep neural
networks and the interpretability of case-based reasoning to produce accurate
yet interpretable image classification models. These models generally classify
input images by comparing them with prototypes learned during training,
yielding explanations in the form of "this looks like that." However, methods
from this line of work use spatially rigid prototypes, which cannot explicitly
account for pose variations. In this paper, we address this shortcoming by
proposing a case-based interpretable neural network that provides spatially
flexible prototypes, called a deformable prototypical part network (Deformable
ProtoPNet). In a Deformable ProtoPNet, each prototype is made up of several
prototypical parts that adaptively change their relative spatial positions
depending on the input image. This enables each prototype to detect object
features with a higher tolerance to spatial transformations, as the parts
within a prototype are allowed to move. Consequently, a Deformable ProtoPNet
can explicitly capture pose variations, improving both model accuracy and the
richness of explanations provided. Compared to other case-based interpretable
models using prototypes, our approach achieves competitive accuracy, gives an
explanation with greater context, and is easier to train, thus enabling wider
use of interpretable models for computer vision.
- Abstract(参考訳): 機械学習は多くの分野で広く採用されており、医療、金融、刑事司法などの高度な応用がある。
公平性、説明責任、透明性の懸念に対処するためには、これらの重要な領域における機械学習モデルによる予測を解釈しなくてはならない。
ディープニューラルネットワークのパワーとケースベース推論の解釈性を統合して、正確かつ解釈可能な画像分類モデルを構築することで、この課題にアプローチする。
これらのモデルは通常、トレーニング中に学習したプロトタイプと比較することで入力画像を分類し、「これのような形」で説明を与える。
しかし、この作品の手法では空間的に剛性のあるプロトタイプが使われており、ポーズのバリエーションを明示的に説明できない。
本稿では,デフォルマブルなプロトタイプ部分ネットワーク(Deformable ProtoPNet)と呼ばれる,空間的にフレキシブルなプロトタイプを提供するケースベースの解釈可能なニューラルネットワークを提案する。
Deformable ProtoPNetでは、各プロトタイプは、入力画像に応じて相対的な空間位置を適応的に変更するいくつかのプロトタイプ部品で構成されている。
これにより、プロトタイプ内の部分の移動が許されるため、各プロトタイプは、空間変換への耐性が高いオブジェクト特徴を検出できる。
これにより、変形可能なプロトプネットはポーズの変動を明示的に捉えることができ、モデルの精度と説明の豊かさが向上する。
プロトタイプを用いた他のケースベース解釈可能なモデルと比較して,提案手法は競争精度が向上し,よりコンテキストの広い説明が可能となり,学習が容易になり,コンピュータビジョンに解釈可能なモデルをより広く活用することができる。
関連論文リスト
- Interpretable Image Classification with Adaptive Prototype-based Vision Transformers [37.62530032165594]
本稿では,ディープラーニングとケースベース推論を組み合わせた画像分類手法であるProtoViTを提案する。
我々のモデルは、視覚変換器(ViT)のバックボーンをプロトタイプベースモデルに統合し、空間的に変形したプロトタイプを提供する。
実験の結果,本モデルでは既存のプロトタイプモデルよりも高い性能が得られることがわかった。
論文 参考訳(メタデータ) (2024-10-28T04:33:28Z) - Mind the Gap Between Prototypes and Images in Cross-domain Finetuning [64.97317635355124]
プロトタイプと画像にそれぞれ異なる変換を適用するために,コントラスト型プロトタイプイメージ適応(CoPA)を提案する。
Meta-Datasetの実験では、CoPAが最先端のパフォーマンスをより効率的に達成できることが示されている。
論文 参考訳(メタデータ) (2024-10-16T11:42:11Z) - Multi-Scale Grouped Prototypes for Interpretable Semantic Segmentation [7.372346036256517]
意味的セグメンテーションを解釈可能なものにするための、有望なアプローチとして、プロトタイプ的な部分学習が登場している。
本稿では,多スケール画像表現を利用した意味的セグメンテーションの解釈手法を提案する。
Pascal VOC,Cityscapes,ADE20Kで行った実験により,提案手法はモデルの疎結合性を高め,既存のプロトタイプ手法よりも解釈可能性を高め,非解釈可能なモデルとの性能ギャップを狭めることを示した。
論文 参考訳(メタデータ) (2024-09-14T17:52:59Z) - Query-guided Prototype Evolution Network for Few-Shot Segmentation [85.75516116674771]
本稿では,前景と背景のプロトタイプの生成プロセスにクエリ機能を統合する新しい手法を提案する。
PASCAL-$5i$とミラーリング-$20i$データセットの実験結果は、QPENetが達成した実質的な拡張を示している。
論文 参考訳(メタデータ) (2024-03-11T07:50:40Z) - ProtoArgNet: Interpretable Image Classification with Super-Prototypes and Argumentation [Technical Report] [17.223442899324482]
ProtoArgNetは、原型的部分学習の精神における画像分類のための、解釈可能な新しいディープニューラルネットワークである。
ProtoArgNetは、prototypeal-partsを統一されたクラス表現に組み合わせたスーパープロトタイプを使用する。
我々は、ProtoArgNetが最先端のプロトタイプ・パートラーニングアプローチより優れているいくつかのデータセットを実証する。
論文 参考訳(メタデータ) (2023-11-26T21:52:47Z) - This Looks Like Those: Illuminating Prototypical Concepts Using Multiple
Visualizations [19.724372592639774]
ProtoConceptsは,ディープラーニングとケースベース推論を組み合わせた画像分類手法である。
提案手法は,プロトタイプベースネットワークのアーキテクチャを改良し,複数のイメージパッチを用いて視覚化された概念を学習する。
実験の結果,この手法は,既存の画像分類網の広範な変更として適用可能であることがわかった。
論文 参考訳(メタデータ) (2023-10-28T04:54:48Z) - Rethinking Person Re-identification from a Projection-on-Prototypes
Perspective [84.24742313520811]
検索タスクとしてのPerson Re-IDentification(Re-ID)は,過去10年間で大きな発展を遂げてきた。
本稿では,新しいベースライン ProNet を提案する。
4つのベンチマークの実験では、提案したProNetは単純だが有効であり、以前のベースラインを大きく上回っている。
論文 参考訳(メタデータ) (2023-08-21T13:38:10Z) - Rethinking Semantic Segmentation: A Prototype View [126.59244185849838]
学習不可能なプロトタイプをベースとした非パラメトリックセマンティックセマンティックセマンティクスモデルを提案する。
我々のフレームワークは、いくつかのデータセットに対して魅力的な結果をもたらす。
この作業が、現在のデファクトセマンティックセグメンテーションモデル設計を再考することを期待しています。
論文 参考訳(メタデータ) (2022-03-28T21:15:32Z) - Dual Prototypical Contrastive Learning for Few-shot Semantic
Segmentation [55.339405417090084]
本稿では,FSSタスクに適合する2つの特徴的コントラスト学習手法を提案する。
第一の考え方は、プロトタイプの特徴空間におけるクラス内距離を減少させながら、クラス間距離を増やすことで、プロトタイプをより差別的にすることである。
提案手法は,PASCAL-5iおよびCOCO-20iデータセット上で,最先端のFSS手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-09T08:14:50Z) - This Looks Like That, Because ... Explaining Prototypes for
Interpretable Image Recognition [4.396860522241307]
プロトタイプを説明するべきだ、と私たちは主張する。
本手法は,色調,形状,テクスチャ,コントラスト,彩度の影響を定量化し,プロトタイプの意味を明らかにする。
このような「誤解を招く」プロトタイプを説明することで、プロトタイプベースの分類モデルの解釈可能性とシミュラビリティを向上させることができる。
論文 参考訳(メタデータ) (2020-11-05T14:43:07Z) - Learning Sparse Prototypes for Text Generation [120.38555855991562]
プロトタイプ駆動のテキスト生成は、トレーニングコーパス全体の保存とインデックスを必要とするため、テスト時に非効率である。
本稿では,言語モデリング性能を向上するスパースなプロトタイプサポートセットを自動的に学習する新しい生成モデルを提案する。
実験では,1000倍のメモリ削減を実現しつつ,従来のプロトタイプ駆動型言語モデルよりも優れていた。
論文 参考訳(メタデータ) (2020-06-29T19:41:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。