論文の概要: Revisiting model self-interpretability in a decision-theoretic way for
binary medical image classification
- arxiv url: http://arxiv.org/abs/2303.06876v2
- Date: Thu, 22 Jun 2023 00:00:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-23 17:34:43.527733
- Title: Revisiting model self-interpretability in a decision-theoretic way for
binary medical image classification
- Title(参考訳): 二元的医用画像分類のための決定論的手法によるモデル自己解釈可能性の再検討
- Authors: Sourya Sengupta and Mark A. Anastasio
- Abstract要約: ポストホック解釈可能性法は、可算だが異なる解釈を生成できるという限界がある。
自己解釈可能なモデルを確立するために, 新たな決定論的動機付け手法を提案する。
提案手法は自己解釈可能で定量的であり,決定論に基づく。
- 参考スコア(独自算出の注目度): 10.426964757656744
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interpretability is highly desired for deep neural network-based classifiers,
especially when addressing high-stake decisions in medical imaging. Commonly
used post-hoc interpretability methods have the limitation that they can
produce plausible but different interpretations of a given model, leading to
ambiguity about which one to choose. To address this problem, a novel
decision-theory-motivated approach is investigated to establish a
self-interpretable model, given a pretrained deep binary black-box medical
image classifier. This approach involves utilizing a self-interpretable
encoder-decoder model in conjunction with a single-layer fully connected
network with unity weights. The model is trained to estimate the test statistic
of the given trained black-box deep binary classifier to maintain a similar
accuracy. The decoder output image, referred to as an equivalency map, is an
image that represents a transformed version of the to-be-classified image that,
when processed by the fixed fully connected layer, produces the same test
statistic value as the original classifier. The equivalency map provides a
visualization of the transformed image features that directly contribute to the
test statistic value and, moreover, permits quantification of their relative
contributions. Unlike the traditional post-hoc interpretability methods, the
proposed method is self-interpretable, quantitative, and fundamentally based on
decision theory. Detailed quantitative and qualitative analysis have been
performed with three different medical image binary classification tasks.
- Abstract(参考訳): ディープニューラルネットワークベースの分類器、特に医用画像における高い判定に対処する場合、解釈可能性は非常に望ましい。
一般的に用いられるポストホック解釈可能性法は、与えられたモデルの正当だが異なる解釈を生成できるという制限を持ち、どのモデルを選ぶべきかの曖昧さをもたらす。
この問題に対処するために,事前訓練された深部二元ブラックボックス医療画像分類器を前提とした自己解釈モデルを確立するために,新たな決定論的動機付け手法を提案する。
このアプローチでは,自己解釈可能なエンコーダデコーダモデルと,ユニタリ重み付き単一層完全連結ネットワークを併用する。
このモデルは、与えられた訓練されたブラックボックスのディープバイナリ分類器のテスト統計を推定するために訓練され、同様の精度を維持する。
デコーダ出力画像は、同値マップと呼ばれ、固定された完全連結層によって処理されると、元の分類器と同じテスト統計値を生成するto-be-classified画像の変換バージョンを表す画像である。
同値マップは、テストの統計値に直接寄与する変換された画像の特徴の可視化を提供し、さらにそれらの相対的な貢献の定量化を可能にする。
従来のポストホック解釈法とは異なり、提案手法は自己解釈可能で定量的であり、決定論に基づく。
3つの異なる医用画像バイナリ分類タスクを用いて詳細な量的・質的分析を行った。
関連論文リスト
- A Bayesian Approach to Weakly-supervised Laparoscopic Image Segmentation [1.9639956888747314]
スパースアノテーションを用いた腹腔鏡下画像分割法について検討した。
本稿では,モデルのセグメンテーションの精度と解釈可能性を高めるために,ベイズ的深層学習手法を提案する。
論文 参考訳(メタデータ) (2024-10-11T04:19:48Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - An Explainable Model-Agnostic Algorithm for CNN-based Biometrics
Verification [55.28171619580959]
本稿では,生体認証環境下でのLIME(Local Interpretable Model-Agnostic Explanations)AI手法の適用について述べる。
論文 参考訳(メタデータ) (2023-07-25T11:51:14Z) - Adversarial Sampling for Fairness Testing in Deep Neural Network [0.0]
与えられたデータセット内のさまざまなクラスの画像にわたるディープニューラルネットワークモデルの予測において、公正性をテストするための逆サンプリング。
我々は、元の画像でニューラルネットワークモデルを訓練し、摂動または攻撃された画像でモデルをトレーニングすることはなかった。
モデルに逆方向サンプリングを施すと、逆方向サンプルが属する画像のもともとのカテゴリ/クラスを予測することができた。
論文 参考訳(メタデータ) (2023-03-06T03:55:37Z) - Inherently Interpretable Multi-Label Classification Using Class-Specific
Counterfactuals [9.485195366036292]
医療画像解析などの高度な応用分野における機械学習アルゴリズムの解釈性は不可欠である。
マルチラベル分類のための本質的に解釈可能なモデルであるAttri-Netを提案する。
Attri-Netは,臨床知識と整合した高品質なマルチラベル説明を生成する。
論文 参考訳(メタデータ) (2023-03-01T13:32:55Z) - Sampling Based On Natural Image Statistics Improves Local Surrogate
Explainers [111.31448606885672]
代理説明器は、モデルが予測にどのように到着するかをさらに理解するために、ポストホック解釈法として人気がある。
そこで本研究では,(1)局所領域のサンプリング方法を変更すること,(2)自然画像の分布特性を知覚的指標を用いて伝達すること,の2つの手法を提案する。
論文 参考訳(メタデータ) (2022-08-08T08:10:13Z) - Disentangled representations: towards interpretation of sex
determination from hip bone [1.0775419935941009]
サリエンシマップは ニューラルネットワークを解釈する 一般的な方法になっています
我々は、より良い解釈可能性のための新しいパラダイムを提案する。
法医学における股関節からの自動性決定の文脈におけるこのアプローチの意義について述べる。
論文 参考訳(メタデータ) (2021-12-17T10:07:05Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Uncertainty Quantification using Variational Inference for Biomedical Image Segmentation [0.0]
我々は,脳腫瘍画像のセグメント化のための変分推論技術に基づくエンコーダデコーダアーキテクチャを用いる。
Dice similarity Coefficient (DSC) と Intersection Over Union (IOU) を指標として, 公開されているBRATSデータセットの評価を行った。
論文 参考訳(メタデータ) (2020-08-12T20:08:04Z) - Improved Slice-wise Tumour Detection in Brain MRIs by Computing
Dissimilarities between Latent Representations [68.8204255655161]
磁気共鳴画像(MRI)の異常検出は教師なし手法で行うことができる。
本研究では,変分オートエンコーダの潜伏空間における相似関数の計算に基づいて,腫瘍検出のためのスライスワイズ半教師法を提案する。
本研究では,高解像度画像上でのモデルをトレーニングし,再現の質を向上させることにより,異なるベースラインに匹敵する結果が得られることを示す。
論文 参考訳(メタデータ) (2020-07-24T14:02:09Z) - Semi-supervised Medical Image Classification with Relation-driven
Self-ensembling Model [71.80319052891817]
医用画像分類のための関係駆動型半教師付きフレームワークを提案する。
これは、摂動下で与えられた入力の予測一貫性を促進することでラベルのないデータを利用する。
本手法は,シングルラベルおよびマルチラベル画像分類のシナリオにおいて,最先端の半教師付き学習手法よりも優れる。
論文 参考訳(メタデータ) (2020-05-15T06:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。