論文の概要: MedicalPatchNet: A Patch-Based Self-Explainable AI Architecture for Chest X-ray Classification
- arxiv url: http://arxiv.org/abs/2509.07477v1
- Date: Tue, 09 Sep 2025 08:02:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 14:38:27.219617
- Title: MedicalPatchNet: A Patch-Based Self-Explainable AI Architecture for Chest X-ray Classification
- Title(参考訳): MedicalPatchNet:胸部X線分類のためのパッチベースの自己説明可能なAIアーキテクチャ
- Authors: Patrick Wienholt, Christiane Kuhl, Jakob Nikolas Kather, Sven Nebelung, Daniel Truhn,
- Abstract要約: 胸部X線分類のための自己説明可能なアーキテクチャであるMedicalPatchNetを提案する。
MedicalPatchNetはイメージを非重複パッチに分割し、個別に各パッチを分類し、予測を集約する。
MedicalPatchNetは、非AI専門家にもアクセス可能な明示的で信頼性の高い説明を提供することで、ショートカット学習に関連するリスクを軽減している。
- 参考スコア(独自算出の注目度): 2.748370039701545
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks excel in radiological image classification but frequently suffer from poor interpretability, limiting clinical acceptance. We present MedicalPatchNet, an inherently self-explainable architecture for chest X-ray classification that transparently attributes decisions to distinct image regions. MedicalPatchNet splits images into non-overlapping patches, independently classifies each patch, and aggregates predictions, enabling intuitive visualization of each patch's diagnostic contribution without post-hoc techniques. Trained on the CheXpert dataset (223,414 images), MedicalPatchNet matches the classification performance (AUROC 0.907 vs. 0.908) of EfficientNet-B0, while substantially improving interpretability: MedicalPatchNet demonstrates substantially improved interpretability with higher pathology localization accuracy (mean hit-rate 0.485 vs. 0.376 with Grad-CAM) on the CheXlocalize dataset. By providing explicit, reliable explanations accessible even to non-AI experts, MedicalPatchNet mitigates risks associated with shortcut learning, thus improving clinical trust. Our model is publicly available with reproducible training and inference scripts and contributes to safer, explainable AI-assisted diagnostics across medical imaging domains. We make the code publicly available: https://github.com/TruhnLab/MedicalPatchNet
- Abstract(参考訳): ディープニューラルネットワークは、放射線画像分類において優れているが、しばしば解釈性に乏しく、臨床受容を制限している。
胸部X線分類のための本質的に自己説明可能なアーキテクチャであるMericalPatchNetについて述べる。
MedicalPatchNetは、イメージを重複しないパッチに分割し、各パッチを独立して分類し、予測を集約する。
CheXpertデータセット(223,414イメージ)でトレーニングされたMericalPatchNetは、効率的なNet-B0の分類性能(AUROC 0.907 vs. 0.908)と、解釈性を大幅に改善した。
非AI専門家にもアクセス可能な明確で信頼性の高い説明を提供することで、MessagePatchNetはショートカット学習に関連するリスクを軽減し、臨床信頼を向上させる。
我々のモデルは再現可能なトレーニングと推論スクリプトで公開されており、医療画像領域全体にわたるより安全で説明可能なAI支援診断に寄与する。
コードを公開しています。 https://github.com/TruhnLab/MedicalPatchNet
関連論文リスト
- A Modified VGG19-Based Framework for Accurate and Interpretable Real-Time Bone Fracture Detection [0.0]
本稿では,VGG-19モデルを用いた骨骨折の自動検出フレームワークを提案する。
コントラスト限定適応ヒストグラム等化(CLAHE)、大津のしきい値設定、カニーエッジ検出など、高度な前処理技術が組み込まれている。
医療専門家はX線画像をアップロードし、0.5秒以内に診断フィードバックを受け取ることができる。
論文 参考訳(メタデータ) (2025-07-31T19:22:58Z) - From Pixels to Histopathology: A Graph-Based Framework for Interpretable Whole Slide Image Analysis [81.19923502845441]
我々はWSIグラフ表現を構成するグラフベースのフレームワークを開発する。
任意のパッチではなく生物学的境界に従う組織表現(ノード)を構築します。
本手法の最終段階として,グラフアテンションネットワークを用いて診断課題を解決する。
論文 参考訳(メタデータ) (2025-03-14T20:15:04Z) - Weakly Supervised Pixel-Level Annotation with Visual Interpretability [1.5035157506526693]
本稿では,アンサンブル学習,視覚的説明可能性,不確実性定量化を統合した自動説明可能なアノテーションシステムを提案する。
提案手法では,事前学習した3つのディープラーニングモデル – ResNet50,EfficientNet,DenseNet – と,視覚的説明のためのXGrad-CAM,不確実性定量化のためのMonte Carlo Dropoutを組み合わせた。
実験の結果,本手法はベースラインモデルより優れ,TBX11Kでは93.04%,Fireデータセットでは96.4%の精度が得られた。
論文 参考訳(メタデータ) (2025-02-25T04:03:22Z) - MAPUNetR: A Hybrid Vision Transformer and U-Net Architecture for Efficient and Interpretable Medical Image Segmentation [0.0]
本稿では,医用画像セグメンテーションのためのU-Netフレームワークを用いて,トランスフォーマーモデルの強度を相乗化する新しいアーキテクチャMAPUNetRを紹介する。
本モデルでは,分解能保存課題に対処し,セグメンテーションされた領域に着目したアテンションマップを導入し,精度と解釈可能性を高める。
臨床実習における医用画像セグメンテーションの強力なツールとして,本モデルが安定した性能と可能性を維持していることを示す。
論文 参考訳(メタデータ) (2024-10-29T16:52:57Z) - CROCODILE: Causality aids RObustness via COntrastive DIsentangled LEarning [8.975676404678374]
CROCODILEフレームワークを導入し、因果関係のツールがモデルの堅牢性からドメインシフトを育む方法を示します。
我々はCXRの多ラベル肺疾患分類に750万枚以上の画像を用いて本手法を適用した。
論文 参考訳(メタデータ) (2024-08-09T09:08:06Z) - Significantly improving zero-shot X-ray pathology classification via fine-tuning pre-trained image-text encoders [50.689585476660554]
本稿では,正対損失緩和とランダムな文サンプリングを含む新たな微調整手法を提案する。
提案手法は,胸部X線データセットと3つの事前訓練モデル間のゼロショット病理分類を一貫して改善する。
論文 参考訳(メタデータ) (2022-12-14T06:04:18Z) - A knee cannot have lung disease: out-of-distribution detection with
in-distribution voting using the medical example of chest X-ray
classification [58.720142291102135]
この研究では、胸部X線分類モデルであるCheXnetを用いて、胸部X線14データセットをトレーニングした。
複数ラベル分類のためのOODデータを検出するために,IDV(In-distriion voting)を提案する。
ID (chest X-ray 14) と OOD データ (IRMA と ImageNet) に基づいてトレーニングした IDV アプローチは,平均で3つのデータセットにわたる 0.999 OOD 検出 AUC を達成した。
論文 参考訳(メタデータ) (2022-08-01T18:20:36Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - Chest x-ray automated triage: a semiologic approach designed for
clinical implementation, exploiting different types of labels through a
combination of four Deep Learning architectures [83.48996461770017]
本研究では,異なる畳み込みアーキテクチャの後期融合に基づく深層学習手法を提案する。
公開胸部x線画像と機関アーカイブを組み合わせたトレーニングデータセットを4つ構築した。
4つの異なるディープラーニングアーキテクチャをトレーニングし、それらのアウトプットとレイトフュージョン戦略を組み合わせることで、統一されたツールを得ました。
論文 参考訳(メタデータ) (2020-12-23T14:38:35Z) - Exploration of Interpretability Techniques for Deep COVID-19
Classification using Chest X-ray Images [10.01138352319106]
5種類のディープラーニングモデル(ResNet18、ResNet34、InceptionV3、InceptionResNetV2、DenseNet161)とそれらのEnsembleは、Chest X-Ray画像を用いて、新型コロナウイルス、肺炎、健康な被験者を分類するために使用されている。
新型コロナウイルスの分類における平均的なMicro-F1スコアは0.66から0.875の範囲で、ネットワークモデルのアンサンブルは0.89である。
論文 参考訳(メタデータ) (2020-06-03T22:55:53Z) - Y-Net for Chest X-Ray Preprocessing: Simultaneous Classification of
Geometry and Segmentation of Annotations [70.0118756144807]
この研究は、機械学習アルゴリズムに胸部X線入力のための一般的な前処理ステップを導入する。
VGG11エンコーダをベースとした改良Y-Netアーキテクチャを用いて,ラジオグラフィの幾何学的配向とセグメンテーションを同時に学習する。
対照画像の27.0%,34.9%に対し,95.8%,96.2%のアノテーションマスクが認められた。
論文 参考訳(メタデータ) (2020-05-08T02:16:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。