論文の概要: Deformable ProtoPNet: An Interpretable Image Classifier Using Deformable
Prototypes
- arxiv url: http://arxiv.org/abs/2111.15000v1
- Date: Mon, 29 Nov 2021 22:38:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-01 13:28:45.818087
- Title: Deformable ProtoPNet: An Interpretable Image Classifier Using Deformable
Prototypes
- Title(参考訳): Deformable ProtoPNet:Deformable Prototypesを用いた解釈可能な画像分類器
- Authors: Jon Donnelly, Alina Jade Barnett, Chaofan Chen
- Abstract要約: 空間的に柔軟なプロトタイプを提供するケースベース解釈型ニューラルネットワークを提案する。
Deformable ProtoPNetでは、各プロトタイプは、入力画像に応じて相対的な空間位置を適応的に変更するいくつかのプロトタイプ部品で構成されている。
提案手法は, 競争精度を向上し, よりコンテキストの高い説明を与え, 訓練が容易であり, コンピュータビジョンに解釈可能なモデルをより広く活用することができる。
- 参考スコア(独自算出の注目度): 2.3096751699592137
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning has been widely adopted in many domains, including
high-stakes applications such as healthcare, finance, and criminal justice. To
address concerns of fairness, accountability and transparency, predictions made
by machine learning models in these critical domains must be interpretable. One
line of work approaches this challenge by integrating the power of deep neural
networks and the interpretability of case-based reasoning to produce accurate
yet interpretable image classification models. These models generally classify
input images by comparing them with prototypes learned during training,
yielding explanations in the form of "this looks like that." However, methods
from this line of work use spatially rigid prototypes, which cannot explicitly
account for pose variations. In this paper, we address this shortcoming by
proposing a case-based interpretable neural network that provides spatially
flexible prototypes, called a deformable prototypical part network (Deformable
ProtoPNet). In a Deformable ProtoPNet, each prototype is made up of several
prototypical parts that adaptively change their relative spatial positions
depending on the input image. This enables each prototype to detect object
features with a higher tolerance to spatial transformations, as the parts
within a prototype are allowed to move. Consequently, a Deformable ProtoPNet
can explicitly capture pose variations, improving both model accuracy and the
richness of explanations provided. Compared to other case-based interpretable
models using prototypes, our approach achieves competitive accuracy, gives an
explanation with greater context, and is easier to train, thus enabling wider
use of interpretable models for computer vision.
- Abstract(参考訳): 機械学習は多くの分野で広く採用されており、医療、金融、刑事司法などの高度な応用がある。
公平性、説明責任、透明性の懸念に対処するためには、これらの重要な領域における機械学習モデルによる予測を解釈しなくてはならない。
ディープニューラルネットワークのパワーとケースベース推論の解釈性を統合して、正確かつ解釈可能な画像分類モデルを構築することで、この課題にアプローチする。
これらのモデルは通常、トレーニング中に学習したプロトタイプと比較することで入力画像を分類し、「これのような形」で説明を与える。
しかし、この作品の手法では空間的に剛性のあるプロトタイプが使われており、ポーズのバリエーションを明示的に説明できない。
本稿では,デフォルマブルなプロトタイプ部分ネットワーク(Deformable ProtoPNet)と呼ばれる,空間的にフレキシブルなプロトタイプを提供するケースベースの解釈可能なニューラルネットワークを提案する。
Deformable ProtoPNetでは、各プロトタイプは、入力画像に応じて相対的な空間位置を適応的に変更するいくつかのプロトタイプ部品で構成されている。
これにより、プロトタイプ内の部分の移動が許されるため、各プロトタイプは、空間変換への耐性が高いオブジェクト特徴を検出できる。
これにより、変形可能なプロトプネットはポーズの変動を明示的に捉えることができ、モデルの精度と説明の豊かさが向上する。
プロトタイプを用いた他のケースベース解釈可能なモデルと比較して,提案手法は競争精度が向上し,よりコンテキストの広い説明が可能となり,学習が容易になり,コンピュータビジョンに解釈可能なモデルをより広く活用することができる。
関連論文リスト
- ProtoP-OD: Explainable Object Detection with Prototypical Parts [0.0]
本稿では、原型的局所特徴を構築し、オブジェクト検出に使用するトランスフォーマーの検出拡張を提案する。
提案した拡張は、プロトタイプアクティベーションの離散化表現を演算するボトルネックモジュール、プロトタイプネックで構成されている。
論文 参考訳(メタデータ) (2024-02-29T13:25:15Z) - This Looks Like Those: Illuminating Prototypical Concepts Using Multiple
Visualizations [19.724372592639774]
ProtoConceptsは,ディープラーニングとケースベース推論を組み合わせた画像分類手法である。
提案手法は,プロトタイプベースネットワークのアーキテクチャを改良し,複数のイメージパッチを用いて視覚化された概念を学習する。
実験の結果,この手法は,既存の画像分類網の広範な変更として適用可能であることがわかった。
論文 参考訳(メタデータ) (2023-10-28T04:54:48Z) - With a Little Help from your own Past: Prototypical Memory Networks for
Image Captioning [47.96387857237473]
我々は、他のトレーニングサンプルを処理しながら得られたアクティベーションに注意を向けるネットワークを考案した。
私たちのメモリは、プロトタイプベクトルの定義を通じて過去のキーと値の分布をモデル化します。
本研究では,エンコーダ・デコーダ変換器の性能を3.7 CIDErポイント向上できることを示す。
論文 参考訳(メタデータ) (2023-08-23T18:53:00Z) - ProtoPFormer: Concentrating on Prototypical Parts in Vision Transformers
for Interpretable Image Recognition [32.34322644235324]
プロトタイプ部分ネットワーク(ProtoPNet)は、説明可能な人工知能(XAI)のための自己探索的特性のため、広く注目され、多くのフォローアップ研究が進められている。
視覚変換器(ViT)のバックボーンに直接ProtoPNetを適用する場合、学習されたプロトタイプは背景によって起動される確率が比較的高く、前景にはあまり注意を払わない。
本稿では,プロトタイプ部分変換器(ProtoPFormer)を提案する。
論文 参考訳(メタデータ) (2022-08-22T16:36:32Z) - Rethinking Semantic Segmentation: A Prototype View [126.59244185849838]
学習不可能なプロトタイプをベースとした非パラメトリックセマンティックセマンティックセマンティクスモデルを提案する。
我々のフレームワークは、いくつかのデータセットに対して魅力的な結果をもたらす。
この作業が、現在のデファクトセマンティックセグメンテーションモデル設計を再考することを期待しています。
論文 参考訳(メタデータ) (2022-03-28T21:15:32Z) - PnP-DETR: Towards Efficient Visual Analysis with Transformers [146.55679348493587]
近年、DeTRはトランスフォーマーを用いたソリューションビジョンタスクの先駆者であり、画像特徴マップを直接オブジェクト結果に変換する。
最近の変圧器を用いた画像認識モデルとTTは、一貫した効率向上を示す。
論文 参考訳(メタデータ) (2021-09-15T01:10:30Z) - Attentional Prototype Inference for Few-Shot Segmentation [128.45753577331422]
数発のセグメンテーションのための確率的潜在変数フレームワークである注意型プロトタイプ推論(API)を提案する。
我々は各オブジェクトカテゴリのプロトタイプを表現するためにグローバル潜在変数を定義し、確率分布としてモデル化する。
我々は4つのベンチマークで広範な実験を行い、提案手法は最先端のプロトタイプベースの手法よりも、少なくとも競争力があり、しばしば優れた性能が得られる。
論文 参考訳(メタデータ) (2021-05-14T06:58:44Z) - This Looks Like That... Does it? Shortcomings of Latent Space Prototype
Explainability in Deep Networks [0.0]
我々は、潜在空間における類似性と入力空間における類似性の間に意味的なギャップがあることを論じる。
具体的には、このネットワークの解釈可能性メカニズムは、意図的に作られた、あるいはJPEG圧縮アーティファクトによっても導かれることがわかっています。
プロトタイプベースのモデルを実際にデプロイする場合、実践者はこのような欠点を念頭に置いておくべきです。
論文 参考訳(メタデータ) (2021-05-05T12:28:34Z) - This Looks Like That, Because ... Explaining Prototypes for
Interpretable Image Recognition [4.396860522241307]
プロトタイプを説明するべきだ、と私たちは主張する。
本手法は,色調,形状,テクスチャ,コントラスト,彩度の影響を定量化し,プロトタイプの意味を明らかにする。
このような「誤解を招く」プロトタイプを説明することで、プロトタイプベースの分類モデルの解釈可能性とシミュラビリティを向上させることができる。
論文 参考訳(メタデータ) (2020-11-05T14:43:07Z) - Learning Sparse Prototypes for Text Generation [120.38555855991562]
プロトタイプ駆動のテキスト生成は、トレーニングコーパス全体の保存とインデックスを必要とするため、テスト時に非効率である。
本稿では,言語モデリング性能を向上するスパースなプロトタイプサポートセットを自動的に学習する新しい生成モデルを提案する。
実験では,1000倍のメモリ削減を実現しつつ,従来のプロトタイプ駆動型言語モデルよりも優れていた。
論文 参考訳(メタデータ) (2020-06-29T19:41:26Z) - Interpretable Entity Representations through Large-Scale Typing [61.4277527871572]
本稿では,人間の読みやすいエンティティ表現を作成し,箱から高パフォーマンスを実現する手法を提案する。
我々の表現は、微粒な実体型に対する後続確率に対応するベクトルである。
特定のドメインに対して,学習に基づく方法で,型セットのサイズを縮小できることを示す。
論文 参考訳(メタデータ) (2020-04-30T23:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。