論文の概要: Revisiting model self-interpretability in a decision-theoretic way for
binary medical image classification
- arxiv url: http://arxiv.org/abs/2303.06876v1
- Date: Mon, 13 Mar 2023 05:51:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 16:12:49.903712
- Title: Revisiting model self-interpretability in a decision-theoretic way for
binary medical image classification
- Title(参考訳): 二元的医用画像分類のための決定論的手法によるモデル自己解釈可能性の再検討
- Authors: Sourya Sengupta and Mark A. Anastasio
- Abstract要約: 二層式医用画像分類問題に対して,一重み付き単層完全連結ネットワークを提案する。
従来のポストホック解釈法とは異なり、提案手法は本質的に解釈可能であり、定量的であり、決定論に基づく。
- 参考スコア(独自算出の注目度): 10.426964757656744
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interpretability is highly desired for deep neural network-based classifiers,
especially when addressing high-stake decisions in medical imaging. Commonly
used post-hoc interpretability methods may not be always useful because
different such methods can produce several plausible but different
interpretations of a given model, leading to confusion about which one to
choose. {In this work, an {inherently} interpretable encoder-decoder model
coupled with a single-layer fully connected network with unity weights is
proposed for binary medical image classification problems. The feature
extraction component of a trained black-box network for the same task is
employed as the pre-trained encoder of the interpretable model. The model is
trained to estimate the decision statistic of the given trained black-box deep
binary classifier to maintain a similar accuracy.} The decoder output
represents a transformed version of the to-be-classified image that, when
processed by the fixed fully connected layer, produces the same decision
statistic value as the original classifier. This is accomplished by minimizing
the mean squared error between the decision statistic values of the black-box
model and encoder-decoder based model during training. The decoder output image
is referred to as an equivalency map. Because the single-layer network is fully
interpretable, the equivalency map provides a visualization of the transformed
image features that contribute to the decision statistic value and, moreover,
permits quantification of their relative contributions. Unlike the traditional
post-hoc interpretability methods, the proposed method is inherently
interpretable, quantitative, and fundamentally based on decision theory.
- Abstract(参考訳): ディープニューラルネットワークベースの分類器、特に医用画像における高い判定に対処する場合、解釈可能性は非常に望ましい。
一般的に使用されるポストホックの解釈可能性法は、異なる方法が与えられたモデルのいくつかの妥当な解釈を生成できるため、常に有用ではないかもしれない。
本研究では, 単一重み付き単層完全連結ネットワークと結合した, {inherently} 解釈可能なエンコーダデコーダモデルを提案する。
同じタスクのために訓練されたブラックボックスネットワークの特徴抽出成分を、解釈可能なモデルの事前学習エンコーダとして用いる。
このモデルは、同じ精度を維持するために、与えられた訓練されたブラックボックスディープバイナリ分類器の決定統計を推定するために訓練される。
} デコーダ出力は、固定された完全連結層によって処理されると、元の分類器と同じ決定統計値を生成するto-be-classifiedイメージの変換バージョンを表す。
これは、トレーニング中のブラックボックスモデルの決定統計値とエンコーダ-デコーダモデルの間の平均2乗誤差を最小化する。
デコーダ出力画像は同値マップと呼ばれる。
単層ネットワークは完全に解釈可能であるため、同値写像は、決定統計量に寄与する変換画像の特徴を可視化し、さらにそれらの相対的貢献の定量化を可能にする。
従来のポストホック解釈法とは異なり、提案手法は本質的に解釈可能であり、定量的であり、決定論に基づく。
関連論文リスト
- A Bayesian Approach to Weakly-supervised Laparoscopic Image Segmentation [1.9639956888747314]
スパースアノテーションを用いた腹腔鏡下画像分割法について検討した。
本稿では,モデルのセグメンテーションの精度と解釈可能性を高めるために,ベイズ的深層学習手法を提案する。
論文 参考訳(メタデータ) (2024-10-11T04:19:48Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - An Explainable Model-Agnostic Algorithm for CNN-based Biometrics
Verification [55.28171619580959]
本稿では,生体認証環境下でのLIME(Local Interpretable Model-Agnostic Explanations)AI手法の適用について述べる。
論文 参考訳(メタデータ) (2023-07-25T11:51:14Z) - Adversarial Sampling for Fairness Testing in Deep Neural Network [0.0]
与えられたデータセット内のさまざまなクラスの画像にわたるディープニューラルネットワークモデルの予測において、公正性をテストするための逆サンプリング。
我々は、元の画像でニューラルネットワークモデルを訓練し、摂動または攻撃された画像でモデルをトレーニングすることはなかった。
モデルに逆方向サンプリングを施すと、逆方向サンプルが属する画像のもともとのカテゴリ/クラスを予測することができた。
論文 参考訳(メタデータ) (2023-03-06T03:55:37Z) - Inherently Interpretable Multi-Label Classification Using Class-Specific
Counterfactuals [9.485195366036292]
医療画像解析などの高度な応用分野における機械学習アルゴリズムの解釈性は不可欠である。
マルチラベル分類のための本質的に解釈可能なモデルであるAttri-Netを提案する。
Attri-Netは,臨床知識と整合した高品質なマルチラベル説明を生成する。
論文 参考訳(メタデータ) (2023-03-01T13:32:55Z) - Sampling Based On Natural Image Statistics Improves Local Surrogate
Explainers [111.31448606885672]
代理説明器は、モデルが予測にどのように到着するかをさらに理解するために、ポストホック解釈法として人気がある。
そこで本研究では,(1)局所領域のサンプリング方法を変更すること,(2)自然画像の分布特性を知覚的指標を用いて伝達すること,の2つの手法を提案する。
論文 参考訳(メタデータ) (2022-08-08T08:10:13Z) - Disentangled representations: towards interpretation of sex
determination from hip bone [1.0775419935941009]
サリエンシマップは ニューラルネットワークを解釈する 一般的な方法になっています
我々は、より良い解釈可能性のための新しいパラダイムを提案する。
法医学における股関節からの自動性決定の文脈におけるこのアプローチの意義について述べる。
論文 参考訳(メタデータ) (2021-12-17T10:07:05Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Uncertainty Quantification using Variational Inference for Biomedical Image Segmentation [0.0]
我々は,脳腫瘍画像のセグメント化のための変分推論技術に基づくエンコーダデコーダアーキテクチャを用いる。
Dice similarity Coefficient (DSC) と Intersection Over Union (IOU) を指標として, 公開されているBRATSデータセットの評価を行った。
論文 参考訳(メタデータ) (2020-08-12T20:08:04Z) - Improved Slice-wise Tumour Detection in Brain MRIs by Computing
Dissimilarities between Latent Representations [68.8204255655161]
磁気共鳴画像(MRI)の異常検出は教師なし手法で行うことができる。
本研究では,変分オートエンコーダの潜伏空間における相似関数の計算に基づいて,腫瘍検出のためのスライスワイズ半教師法を提案する。
本研究では,高解像度画像上でのモデルをトレーニングし,再現の質を向上させることにより,異なるベースラインに匹敵する結果が得られることを示す。
論文 参考訳(メタデータ) (2020-07-24T14:02:09Z) - Semi-supervised Medical Image Classification with Relation-driven
Self-ensembling Model [71.80319052891817]
医用画像分類のための関係駆動型半教師付きフレームワークを提案する。
これは、摂動下で与えられた入力の予測一貫性を促進することでラベルのないデータを利用する。
本手法は,シングルラベルおよびマルチラベル画像分類のシナリオにおいて,最先端の半教師付き学習手法よりも優れる。
論文 参考訳(メタデータ) (2020-05-15T06:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。