論文の概要: Pixel-Grounded Prototypical Part Networks
- arxiv url: http://arxiv.org/abs/2309.14531v1
- Date: Mon, 25 Sep 2023 21:09:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-27 15:46:44.604768
- Title: Pixel-Grounded Prototypical Part Networks
- Title(参考訳): 画素を囲むプロトタイプ部品ネットワーク
- Authors: Zachariah Carmichael, Suhas Lohit, Anoop Cherian, Michael Jones,
Walter Scheirer
- Abstract要約: 原型部分ニューラルネットワーク(ProtoPartNN)は、機械学習に対する本質的に解釈可能なアプローチである。
これらの根底にある問題からの減退は、可視化の多彩な性質と直観への過度な依存によるものである、と我々は主張する。
本稿では,意味的ローカライゼーションのための新しい受容的フィールドベースアーキテクチャ制約と,ProtoPartNNに対する原理的ピクセル空間マッピングを提案する。
- 参考スコア(独自算出の注目度): 33.408034817820834
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Prototypical part neural networks (ProtoPartNNs), namely PROTOPNET and its
derivatives, are an intrinsically interpretable approach to machine learning.
Their prototype learning scheme enables intuitive explanations of the form,
this (prototype) looks like that (testing image patch). But, does this actually
look like that? In this work, we delve into why object part localization and
associated heat maps in past work are misleading. Rather than localizing to
object parts, existing ProtoPartNNs localize to the entire image, contrary to
generated explanatory visualizations. We argue that detraction from these
underlying issues is due to the alluring nature of visualizations and an
over-reliance on intuition. To alleviate these issues, we devise new receptive
field-based architectural constraints for meaningful localization and a
principled pixel space mapping for ProtoPartNNs. To improve interpretability,
we propose additional architectural improvements, including a simplified
classification head. We also make additional corrections to PROTOPNET and its
derivatives, such as the use of a validation set, rather than a test set, to
evaluate generalization during training. Our approach, PIXPNET (Pixel-grounded
Prototypical part Network), is the only ProtoPartNN that truly learns and
localizes to prototypical object parts. We demonstrate that PIXPNET achieves
quantifiably improved interpretability without sacrificing accuracy.
- Abstract(参考訳): 原型部分ニューラルネットワーク(ProtoPartNNs)、すなわちProtoPNETとその派生体は、機械学習に対して本質的に解釈可能なアプローチである。
彼らのプロトタイプの学習方式は、フォームの直感的な説明を可能にする。
しかし、これは実際にそう見えるのでしょうか?
本研究では,過去の作業における対象部分の局所化と関連する熱マップがなぜ誤解を招くのかを考察する。
既存のProtoPartNNは、オブジェクト部分にローカライズするのではなく、画像全体をローカライズする。
これらの根底にある問題からの減退は、可視化の多彩な性質と直観への過度な依存に起因すると我々は主張する。
これらの問題を緩和するため,我々は,有意義な局所化のための新しい受容的場に基づくアーキテクチャ制約と,protopartnnの原理的画素空間マッピングを考案する。
解釈性を向上させるため,分類ヘッドの簡略化など,さらなるアーキテクチャ改善を提案する。
また、トレーニング中の一般化を評価するために、テストセットではなく検証セットの使用など、protopnetとその派生にも追加の修正を加えます。
我々のアプローチであるPIXPNET(Pixel-grounded Prototypeal part Network)は、プロトタイプオブジェクト部品を真に学習し、ローカライズする唯一のProtoPartNNである。
PIXPNETは精度を犠牲にすることなく、定量的に解釈可能性を向上させることを実証した。
関連論文リスト
- ProtoArgNet: Interpretable Image Classification with Super-Prototypes
and Argumentation [Technical Report] [19.35742377374265]
ProtoArgNetは、画像分類のための新しい解釈可能なディープニューラルネットワークである。
原型部分と単一原型クラス表現を結合した超原型を用いる。
画像内の異なる領域からの異なる原型部分間の空間的関係を認識することができる。
論文 参考訳(メタデータ) (2023-11-26T21:52:47Z) - PDiscoNet: Semantically consistent part discovery for fine-grained
recognition [62.12602920807109]
画像レベルのクラスラベルのみを用いて,対象部品の発見を推奨する先行情報とともにPDiscoNetを提案する。
CUB,CelebA,PartImageNet で得られた結果から,提案手法は従来手法よりもかなり優れた部分発見性能が得られることがわかった。
論文 参考訳(メタデータ) (2023-09-06T17:19:29Z) - ALSO: Automotive Lidar Self-supervision by Occupancy estimation [70.70557577874155]
本稿では,ポイントクラウド上で動作している深層知覚モデルのバックボーンを事前学習するための自己教師型手法を提案する。
中心となる考え方は、3Dポイントがサンプリングされる表面の再構成であるプリテキストタスクでモデルをトレーニングすることである。
直感的には、もしネットワークがわずかな入力ポイントのみを考慮し、シーン表面を再構築できるなら、おそらく意味情報の断片をキャプチャする。
論文 参考訳(メタデータ) (2022-12-12T13:10:19Z) - ProtoPFormer: Concentrating on Prototypical Parts in Vision Transformers
for Interpretable Image Recognition [32.34322644235324]
プロトタイプ部分ネットワーク(ProtoPNet)は、説明可能な人工知能(XAI)のための自己探索的特性のため、広く注目され、多くのフォローアップ研究が進められている。
視覚変換器(ViT)のバックボーンに直接ProtoPNetを適用する場合、学習されたプロトタイプは背景によって起動される確率が比較的高く、前景にはあまり注意を払わない。
本稿では,プロトタイプ部分変換器(ProtoPFormer)を提案する。
論文 参考訳(メタデータ) (2022-08-22T16:36:32Z) - Deformable ProtoPNet: An Interpretable Image Classifier Using Deformable
Prototypes [2.3096751699592137]
空間的に柔軟なプロトタイプを提供するケースベース解釈型ニューラルネットワークを提案する。
Deformable ProtoPNetでは、各プロトタイプは、入力画像に応じて相対的な空間位置を適応的に変更するいくつかのプロトタイプ部品で構成されている。
提案手法は, 競争精度を向上し, よりコンテキストの高い説明を与え, 訓練が容易であり, コンピュータビジョンに解釈可能なモデルをより広く活用することができる。
論文 参考訳(メタデータ) (2021-11-29T22:38:13Z) - Unsupervised Part Discovery from Contrastive Reconstruction [90.88501867321573]
自己監督型視覚表現学習の目標は、強く伝達可能な画像表現を学習することである。
対象部分の発見とセグメンテーションに対する教師なしアプローチを提案する。
本手法は, 細粒度, 視覚的に異なるカテゴリ間でセマンティックな部分を生成する。
論文 参考訳(メタデータ) (2021-11-11T17:59:42Z) - AAformer: Auto-Aligned Transformer for Person Re-Identification [77.29096172564091]
Transformerは、画像分類やオブジェクト検出などの多くのビジョンタスクにおいて、畳み込みアーキテクチャよりも優位性を示しています。
部分表現を学習するために「部分トークン」の学習可能なベクトルを追加することにより、トランスフォーマーのための新しいアライメントフレームワークを開発した。
このフレームワークに基づいて、同一のセマンティクスのパッチ埋め込みを同一部分トークンに適応的に割り当てるオンライン自動調整変換器(AAformer)を設計する。
論文 参考訳(メタデータ) (2021-04-02T08:00:25Z) - Towards Efficient Scene Understanding via Squeeze Reasoning [71.1139549949694]
我々はSqueeze Reasoningと呼ばれる新しいフレームワークを提案する。
空間地図上の情報を伝播するのではなく、まず入力特徴をチャネルワイドなグローバルベクトルに絞ることを学ぶ。
提案手法はエンドツーエンドのトレーニングブロックとしてモジュール化可能であり,既存のネットワークに簡単に接続可能であることを示す。
論文 参考訳(メタデータ) (2020-11-06T12:17:01Z) - LoCo: Local Contrastive Representation Learning [93.98029899866866]
重なり合うローカルブロックが重なり合うことで、デコーダの深さを効果的に増加させ、上位ブロックが暗黙的に下位ブロックにフィードバックを送ることができることを示す。
このシンプルな設計は、ローカル学習とエンドツーエンドのコントラスト学習アルゴリズムのパフォーマンスギャップを初めて埋める。
論文 参考訳(メタデータ) (2020-08-04T05:41:29Z) - Compositional Convolutional Neural Networks: A Robust and Interpretable
Model for Object Recognition under Occlusion [21.737411464598797]
ブラックボックス深部畳み込みニューラルネットワーク(DCNN)は,部分閉塞に対する頑健性に限界がある。
構成畳み込みニューラルネットワーク(CompositionalNets)に部分ベースモデルとDCNNを統合することで、これらの制限を克服する。
実験により,コンポジションネットは,部分閉塞物体の分類・検出において,非構成対象に比べて大きなマージンで改善されていることが示された。
論文 参考訳(メタデータ) (2020-06-28T08:18:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。