論文の概要: LucidPPN: Unambiguous Prototypical Parts Network for User-centric Interpretable Computer Vision
- arxiv url: http://arxiv.org/abs/2405.14331v1
- Date: Thu, 23 May 2024 09:00:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-24 18:04:42.699798
- Title: LucidPPN: Unambiguous Prototypical Parts Network for User-centric Interpretable Computer Vision
- Title(参考訳): LucidPPN:ユーザ中心のコンピュータビジョンのためのあいまいなプロトタイプ部品ネットワーク
- Authors: Mateusz Pach, Dawid Rymarczyk, Koryna Lewandowska, Jacek Tabor, Bartosz Zieliński,
- Abstract要約: Lucid Prototypeal Parts Network (LucidPPN) は、カラープロトタイプと他の視覚的特徴を分離する新しいプロトタイプ部品ネットワークである。
提案手法では,非カラー視覚特徴,グレースケール画像処理,カラー情報のみに焦点をあてた2つの推論枝を用いる。
LucidPPNは、分類されたオブジェクトの意味的な部分に対応するプロトタイプの部分を特定し、データクラス間の比較をより直感的にする。
- 参考スコア(独自算出の注目度): 9.7176171712869
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Prototypical parts networks combine the power of deep learning with the explainability of case-based reasoning to make accurate, interpretable decisions. They follow the this looks like that reasoning, representing each prototypical part with patches from training images. However, a single image patch comprises multiple visual features, such as color, shape, and texture, making it difficult for users to identify which feature is important to the model. To reduce this ambiguity, we introduce the Lucid Prototypical Parts Network (LucidPPN), a novel prototypical parts network that separates color prototypes from other visual features. Our method employs two reasoning branches: one for non-color visual features, processing grayscale images, and another focusing solely on color information. This separation allows us to clarify whether the model's decisions are based on color, shape, or texture. Additionally, LucidPPN identifies prototypical parts corresponding to semantic parts of classified objects, making comparisons between data classes more intuitive, e.g., when two bird species might differ primarily in belly color. Our experiments demonstrate that the two branches are complementary and together achieve results comparable to baseline methods. More importantly, LucidPPN generates less ambiguous prototypical parts, enhancing user understanding.
- Abstract(参考訳): 原始的部分ネットワークは、深層学習の力とケースベースの推論の説明可能性を組み合わせて、正確で解釈可能な決定を行う。
彼らはこうした推論に従って、トレーニング画像のパッチで各原型部分を表現している。
しかし、単一画像パッチは色、形状、テクスチャなどの複数の視覚的特徴を含んでおり、どの特徴がモデルにとって重要であるかを特定するのが困難である。
この曖昧さを軽減するために、カラープロトタイプと他の視覚的特徴を分離する新しいプロトタイプ部品ネットワークであるLucidPPN(Lucid Prototypeal Parts Network)を導入する。
提案手法では,非カラー視覚特徴,グレースケール画像処理,カラー情報のみに焦点をあてた2つの推論枝を用いる。
この分離により、モデルの判断が色、形状、テクスチャに基づいているかどうかを明確にすることができます。
さらに、LucidPPNは分類対象のセマンティックな部分に対応する原型を同定し、2種の鳥が主に腹の色で異なる場合、データクラス間の比較をより直感的にする。
実験により, 2つの分岐が相補的であり, 相補的にベースライン法に匹敵する結果が得られることを示した。
さらに重要なことは、LucidPPNは不明瞭なプロトタイプ部品を生成せず、ユーザーの理解を高めることである。
関連論文リスト
- GAProtoNet: A Multi-head Graph Attention-based Prototypical Network for Interpretable Text Classification [1.170190320889319]
GAProtoNetは、新しいホワイトボックスマルチヘッドグラフアテンションベースのプロトタイプネットワークである。
提案手法は,元のブラックボックスLMの精度を犠牲にすることなく,優れた結果が得られる。
プロトタイプクラスタのケーススタディと可視化は,LMを用いて構築したブラックボックスモデルの決定を効率的に説明できることを示す。
論文 参考訳(メタデータ) (2024-09-20T08:15:17Z) - This Looks Like Those: Illuminating Prototypical Concepts Using Multiple
Visualizations [19.724372592639774]
ProtoConceptsは,ディープラーニングとケースベース推論を組み合わせた画像分類手法である。
提案手法は,プロトタイプベースネットワークのアーキテクチャを改良し,複数のイメージパッチを用いて視覚化された概念を学習する。
実験の結果,この手法は,既存の画像分類網の広範な変更として適用可能であることがわかった。
論文 参考訳(メタデータ) (2023-10-28T04:54:48Z) - Shape-Erased Feature Learning for Visible-Infrared Person
Re-Identification [90.39454748065558]
体型は、VI-ReIDにとって重要なモダリティシェードの1つである。
本稿では,2つの部分空間におけるモダリティ共有特徴を関連づける形状学習パラダイムを提案する。
SYSU-MM01, RegDB, HITSZ-VCMデータセットを用いた実験により, 本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-04-09T10:22:10Z) - The Influences of Color and Shape Features in Visual Contrastive
Learning [0.0]
本稿では,個々の画像特徴(色や形状など)がモデル性能に与える影響について検討する。
実験結果から、教師付き表現と比較して、コントラスト表現は類似した色を持つオブジェクトとクラスタリングする傾向にあることが示された。
論文 参考訳(メタデータ) (2023-01-29T15:10:14Z) - Partitioning Image Representation in Contrastive Learning [0.0]
コントラスト学習において,アンカーの共通および特異な特徴と正のサンプルの両方を学習できる新しい表現,分割表現を導入する。
本稿では,VAEフレームワーク内の2種類の情報を分離し,従来のBYOLを線形分離性で上回り,下流タスクとして数ショットの学習タスクを実現できることを示す。
論文 参考訳(メタデータ) (2022-03-20T04:55:39Z) - PTR: A Benchmark for Part-based Conceptual, Relational, and Physical
Reasoning [135.2892665079159]
PTRと呼ばれる大規模診断用視覚推論データセットを新たに導入する。
PTRは70kのRGBD合成画像と地上の真実のオブジェクトと部分レベルのアノテーションを含んでいる。
このデータセット上で、いくつかの最先端の視覚的推論モデルを調べ、それらがまだ多くの驚くべき誤りを犯していることを観察する。
論文 参考訳(メタデータ) (2021-12-09T18:59:34Z) - Generating Compositional Color Representations from Text [3.141061579698638]
画像検索エンジン上のユーザクエリのかなりの部分が(属性、オブジェクト)構造に従っているという事実に触発され、このような大局的な色プロファイルを生成する生成逆ネットワークを提案する。
コンポジションを学ぶためにパイプラインを設計します - 見た属性とオブジェクトを、目に見えないペアに組み合わせる機能です。
論文 参考訳(メタデータ) (2021-09-22T01:37:13Z) - Object-and-Action Aware Model for Visual Language Navigation [70.33142095637515]
VLN(Vision-and-Language Navigation)は、比較的一般的な自然言語命令をロボットエージェントアクションに変換する必要があるという点で特徴的である。
本稿では、これらの2種類の自然言語に基づく命令を別々に処理するオブジェクト・アンド・アクション・アウェア・モデル(OAAM)を提案する。
これにより、各プロセスは、オブジェクト中心/アクション中心の命令を、自身の視覚的知覚/行動指向に柔軟に一致させることができる。
論文 参考訳(メタデータ) (2020-07-29T06:32:18Z) - Semantic-driven Colorization [78.88814849391352]
最近の着色は、白黒画像の着色を学習しながら意味情報を暗黙的に予測する。
そこで本研究では,まず,人間の動作をシミュレートして,画像の理解を学習し,色づけする。
論文 参考訳(メタデータ) (2020-06-13T08:13:30Z) - Instance-aware Image Colorization [51.12040118366072]
本稿では,インスタンス認識のカラー化を実現する手法を提案する。
我々のネットワークアーキテクチャは、市販のオブジェクト検出器を利用して、収穫されたオブジェクト画像を取得する。
類似したネットワークを用いて、フルイメージの特徴を抽出し、融合モジュールを適用して最終色を予測する。
論文 参考訳(メタデータ) (2020-05-21T17:59:23Z) - Pose-guided Visible Part Matching for Occluded Person ReID [80.81748252960843]
本稿では、ポーズ誘導による特徴の識別を共同で学習し、その部分の可視性を自己判断する Pose-Guided Visible Part Matching (PVPM) 法を提案する。
実験結果から,提案手法は最先端手法と競合する性能を示した。
論文 参考訳(メタデータ) (2020-04-01T04:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。