論文の概要: Hierarchical Vision Transformer with Prototypes for Interpretable Medical Image Classification
- arxiv url: http://arxiv.org/abs/2502.08997v1
- Date: Thu, 13 Feb 2025 06:24:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-14 13:48:26.824615
- Title: Hierarchical Vision Transformer with Prototypes for Interpretable Medical Image Classification
- Title(参考訳): 医用画像分類のためのプロトタイプ付き階層型視覚変換器
- Authors: Luisa Gallée, Catharina Silvia Lisson, Meinrad Beer, Michael Götz,
- Abstract要約: 視覚変換器であるHierViTは、本質的に解釈可能であり、その推論を人間のものと適応させる。
肺評価のためのLIDC-IDRIと皮膚病変分類のためのDerm7ptの2つの医学的ベンチマークデータセットで評価した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Explainability is a highly demanded requirement for applications in high-risk areas such as medicine. Vision Transformers have mainly been limited to attention extraction to provide insight into the model's reasoning. Our approach combines the high performance of Vision Transformers with the introduction of new explainability capabilities. We present HierViT, a Vision Transformer that is inherently interpretable and adapts its reasoning to that of humans. A hierarchical structure is used to process domain-specific features for prediction. It is interpretable by design, as it derives the target output with human-defined features that are visualized by exemplary images (prototypes). By incorporating domain knowledge about these decisive features, the reasoning is semantically similar to human reasoning and therefore intuitive. Moreover, attention heatmaps visualize the crucial regions for identifying each feature, thereby providing HierViT with a versatile tool for validating predictions. Evaluated on two medical benchmark datasets, LIDC-IDRI for lung nodule assessment and derm7pt for skin lesion classification, HierViT achieves superior and comparable prediction accuracy, respectively, while offering explanations that align with human reasoning.
- Abstract(参考訳): 説明可能性(Explainability)は、医療などのリスクの高い分野の応用に要求される要求である。
視覚変換器は主に、モデルの推論に関する洞察を提供するために注意抽出に限られている。
提案手法は、視覚変換器の性能向上と、新しい説明可能性の導入とを組み合わせたものである。
視覚変換器であるHierViTは、本質的に解釈可能であり、その推論を人間のものと適応させる。
階層構造は、予測のためにドメイン固有の特徴を処理するために使用される。
対象の出力は、模範画像(プロトタイプ)によって視覚化される人間の定義した特徴から導かれるため、設計によって解釈可能である。
これらの決定的な特徴に関するドメイン知識を取り入れることで、推論は意味論的に人間の推論と似ており、従って直感的である。
さらに、注目ヒートマップは、各機能を特定する上で重要な領域を視覚化し、予測を検証する汎用ツールとしてHierViTを提供する。
HierViTは、肺結節評価のためのLIDC-IDRIと皮膚病変分類のためのderm7ptの2つの医学ベンチマークデータセットで評価され、それぞれ優れた予測精度と同等の予測精度を達成し、人間の推論と一致する説明を提供する。
関連論文リスト
- DAPE V2: Process Attention Score as Feature Map for Length Extrapolation [63.87956583202729]
我々は特徴写像としての注意を概念化し、コンピュータビジョンにおける処理方法を模倣するために畳み込み演算子を適用した。
様々な注意関係のモデルに適応できる新しい洞察は、現在のTransformerアーキテクチャがさらなる進化の可能性があることを示している。
論文 参考訳(メタデータ) (2024-10-07T07:21:49Z) - Interpretable Medical Image Classification using Prototype Learning and
Privileged Information [0.0]
解釈可能性はしばしば医療画像に必須の要件である。
本研究では,学習プロセスで利用可能な追加情報を用いて,理解しやすく強力なモデルを構築することができるかを検討する。
本稿では,カプセルネットワーク,プロトタイプ学習,特権情報の利用といったメリットを活用する,Proto-Capsと呼ばれる革新的なソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-24T11:28:59Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Improving Explainability of Disentangled Representations using
Multipath-Attribution Mappings [12.145748796751619]
下流タスク予測に解釈不能な不整合表現を利用するフレームワークを提案する。
提案手法の有効性を,総合ベンチマークスイートと2つの医療データセットで実証する。
論文 参考訳(メタデータ) (2023-06-15T10:52:29Z) - Towards Evaluating Explanations of Vision Transformers for Medical
Imaging [7.812073412066698]
Vision Transformer (ViT)は、画像分類のための畳み込みニューラルネットワークに代わる有望な代替手段である。
本稿では胸部X線画像の分類に応用したViTにおける様々な解釈手法の性能について検討する。
論文 参考訳(メタデータ) (2023-04-12T19:37:28Z) - Parameter-Efficient Transformer with Hybrid Axial-Attention for Medical
Image Segmentation [10.441315305453504]
医用画像セグメンテーションのための位置情報を用いた本質的帰納バイアスを探索するパラメータ効率変換器を提案する。
そこで本研究では,空間画素情報と相対位置情報を帰納バイアスとして利用できるハイブリッド軸アテンション(HAA)を提案する。
論文 参考訳(メタデータ) (2022-11-17T13:54:55Z) - Towards Trustworthy Healthcare AI: Attention-Based Feature Learning for
COVID-19 Screening With Chest Radiography [70.37371604119826]
信頼性を備えたAIモデルの構築は、特に医療などの規制領域において重要である。
これまでの研究では、畳み込みニューラルネットワークをバックボーンアーキテクチャとして使用していた。
本稿では,視覚変換器を用いた特徴学習手法を提案する。
論文 参考訳(メタデータ) (2022-07-19T14:55:42Z) - Visualizing and Understanding Patch Interactions in Vision Transformer [96.70401478061076]
Vision Transformer (ViT) は様々なコンピュータビジョンタスクにおいて主要なツールとなっている。
本稿では,視覚変換器のパッチ間の重要な注意相互作用を分析し,解釈するための,説明可能な新しい可視化手法を提案する。
論文 参考訳(メタデータ) (2022-03-11T13:48:11Z) - Class-Aware Generative Adversarial Transformers for Medical Image
Segmentation [39.14169989603906]
医用画像セグメンテーションのための新規な生成逆変換器CA-GANformerを提案する。
まず、ピラミッド構造を利用してマルチスケール表現を構築し、マルチスケールのバリエーションを扱う。
次に、意味構造を持つオブジェクトの識別領域をよりよく学習するために、新しいクラス対応トランスフォーマーモジュールを設計する。
論文 参考訳(メタデータ) (2022-01-26T03:50:02Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。