論文の概要: Interpreting and Correcting Medical Image Classification with PIP-Net
- arxiv url: http://arxiv.org/abs/2307.10404v2
- Date: Mon, 11 Sep 2023 07:22:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-12 19:16:24.750954
- Title: Interpreting and Correcting Medical Image Classification with PIP-Net
- Title(参考訳): PIP-Netによる医用画像分類の解釈と修正
- Authors: Meike Nauta, Johannes H. Hegeman, Jeroen Geerdink, J\"org
Schl\"otterer, Maurice van Keulen, Christin Seifert
- Abstract要約: 本稿では,リアルタイム医用画像データの自動診断支援における,解釈可能な機械学習,特にPIP-Netの適用可能性について検討する。
PIP-Netは、人間の理解可能な画像部品を学習し、その精度と、骨折検出と皮膚癌診断の解釈性を評価する。
我々は、人間が望ましくないプロトタイプを直接無効にすることで、PIP-Netの推論を手動で修正できることを初めて示す。
- 参考スコア(独自算出の注目度): 3.1848353819167787
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Part-prototype models are explainable-by-design image classifiers, and a
promising alternative to black box AI. This paper explores the applicability
and potential of interpretable machine learning, in particular PIP-Net, for
automated diagnosis support on real-world medical imaging data. PIP-Net learns
human-understandable prototypical image parts and we evaluate its accuracy and
interpretability for fracture detection and skin cancer diagnosis. We find that
PIP-Net's decision making process is in line with medical classification
standards, while only provided with image-level class labels. Because of
PIP-Net's unsupervised pretraining of prototypes, data quality problems such as
undesired text in an X-ray or labelling errors can be easily identified.
Additionally, we are the first to show that humans can manually correct the
reasoning of PIP-Net by directly disabling undesired prototypes. We conclude
that part-prototype models are promising for medical applications due to their
interpretability and potential for advanced model debugging.
- Abstract(参考訳): パートプロトタイプモデルは、説明可能な画像分類器であり、ブラックボックスAIに代わる有望な選択肢である。
本稿では,リアルタイム医用画像データの自動診断支援における解釈可能な機械学習,特にPIP-Netの適用可能性について検討する。
PIP-Netは人間の理解可能な原型画像部品を学習し,その精度と皮膚癌診断の解釈性を評価する。
PIP-Netの意思決定プロセスは,画像レベルのクラスラベルのみを提供しながら,医学的分類基準に従っていることがわかった。
PIP-Netによるプロトタイプの教師なし事前トレーニングのため、望ましくないテキストやラベリングエラーなどのデータ品質問題を容易に識別できる。
さらに,PIP-Netの推論を直接無効にすることで,人間が手動で修正できることを初めて示す。
我々は,その解釈可能性と高度なモデルデバッグの可能性から,part-prototypeモデルが医療応用に有望であると結論づける。
関連論文リスト
- Enhanced Prototypical Part Network (EPPNet) For Explainable Image Classification Via Prototypes [16.528373143163275]
画像分類のためのEPPNet(Enhanced Prototypeal Part Network)を導入する。
EPPNetは、分類結果を説明するために使用可能な関連するプロトタイプを発見しながら、強力なパフォーマンスを実現している。
CUB-200-2011 データセットによる評価の結果,EPPNet は最先端の xAI ベースの手法よりも優れていた。
論文 参考訳(メタデータ) (2024-08-08T17:26:56Z) - This actually looks like that: Proto-BagNets for local and global interpretability-by-design [5.037593461859481]
解釈可能性(Interpretability)は、高度なアプリケーションで機械学習モデルを使用するための重要な要件である。
本稿では,解釈可能なプロトタイプベースモデルであるProto-BagNetsを紹介する。
Proto-BagNetは、忠実で正確で臨床的に意味のあるローカルおよびグローバルな説明を提供する。
論文 参考訳(メタデータ) (2024-06-21T14:12:15Z) - PIPNet3D: Interpretable Detection of Alzheimer in MRI Scans [2.8254815749464544]
Part-Prototype Neural Network (PP-NN) は標準ブラックボックスモデルの代替品である。
ボリューム画像のためのプロトタイプPP-NNであるPIPNet3Dを提案する。
構造型磁気共鳴画像(sMRI)によるアルツハイマー病の臨床診断にPIPNet3Dを適用した。
論文 参考訳(メタデータ) (2024-03-27T08:09:04Z) - FeaInfNet: Diagnosis in Medical Image with Feature-Driven Inference and
Visual Explanations [4.022446255159328]
解釈可能なディープラーニングモデルは、画像認識の分野で広く注目を集めている。
提案されている多くの解釈可能性モデルは、医用画像診断の精度と解釈性に問題がある。
これらの問題を解決するために,機能駆動型推論ネットワーク(FeaInfNet)を提案する。
論文 参考訳(メタデータ) (2023-12-04T13:09:00Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Zero-shot Model Diagnosis [80.36063332820568]
ディープラーニングモデルを評価するための一般的なアプローチは、興味のある属性を持つラベル付きテストセットを構築し、そのパフォーマンスを評価することである。
本稿では,ゼロショットモデル診断(ZOOM)がテストセットやラベル付けを必要とせずに可能であることを論じる。
論文 参考訳(メタデータ) (2023-03-27T17:59:33Z) - Self-Supervised Learning as a Means To Reduce the Need for Labeled Data
in Medical Image Analysis [64.4093648042484]
胸部X線画像のデータセットとバウンディングボックスラベルを用いて,13種類の異常の分類を行った。
ラベル付きデータの平均精度と精度を60%に抑えることで,完全教師付きモデルと同等の性能が得られることを示す。
論文 参考訳(メタデータ) (2022-06-01T09:20:30Z) - Distributional Shifts in Automated Diabetic Retinopathy Screening [18.28930119096275]
ディープラーニングモデルは糖尿病網膜症スクリーニングにおいて網膜画像が参照可能かどうかを自動的に検出するために開発されている。
それらの分類精度は、入力画像がトレーニング分布から分布的にシフトするにつれて低下する。
本稿では,この問題に対処するためのディリクレ事前ネットワークベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-07-25T15:03:12Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Towards Unsupervised Learning for Instrument Segmentation in Robotic
Surgery with Cycle-Consistent Adversarial Networks [54.00217496410142]
本稿では、入力された内視鏡画像と対応するアノテーションとのマッピングを学習することを目的として、未ペア画像から画像への変換を提案する。
当社のアプローチでは,高価なアノテーションを取得することなく,イメージセグメンテーションモデルをトレーニングすることが可能です。
提案手法をEndovis 2017チャレンジデータセットで検証し,教師付きセグメンテーション手法と競合することを示す。
論文 参考訳(メタデータ) (2020-07-09T01:39:39Z) - Collaborative Boundary-aware Context Encoding Networks for Error Map
Prediction [65.44752447868626]
本稿では,AEP-Net と呼ばれる協調的コンテキスト符号化ネットワークを提案する。
具体的には、画像とマスクのより優れた特徴融合のための協調的な特徴変換分岐と、エラー領域の正確な局所化を提案する。
AEP-Netはエラー予測タスクの平均DSCが0.8358,0.8164であり、ピアソン相関係数が0.9873である。
論文 参考訳(メタデータ) (2020-06-25T12:42:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。