論文の概要: Explaining Predictions of Deep Neural Classifier via Activation Analysis
- arxiv url: http://arxiv.org/abs/2012.02248v1
- Date: Thu, 3 Dec 2020 20:36:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-23 15:13:52.339066
- Title: Explaining Predictions of Deep Neural Classifier via Activation Analysis
- Title(参考訳): 活性化解析による深部神経分類器の予測
- Authors: Martin Stano, Wanda Benesova, Lukas Samuel Martak
- Abstract要約: 本稿では,畳み込みニューラルネットワーク(CNN)に基づく深層学習システムを実行する人間専門家に対して,意思決定プロセスの説明と支援を行う新しいアプローチを提案する。
以上の結果から,本手法は既存のアトラスから最も類似した予測を識別できる別個の予測戦略を検出することができることが示された。
- 参考スコア(独自算出の注目度): 0.11470070927586014
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In many practical applications, deep neural networks have been typically
deployed to operate as a black box predictor. Despite the high amount of work
on interpretability and high demand on the reliability of these systems, they
typically still have to include a human actor in the loop, to validate the
decisions and handle unpredictable failures and unexpected corner cases. This
is true in particular for failure-critical application domains, such as medical
diagnosis. We present a novel approach to explain and support an interpretation
of the decision-making process to a human expert operating a deep learning
system based on Convolutional Neural Network (CNN). By modeling activation
statistics on selected layers of a trained CNN via Gaussian Mixture Models
(GMM), we develop a novel perceptual code in binary vector space that describes
how the input sample is processed by the CNN. By measuring distances between
pairs of samples in this perceptual encoding space, for any new input sample,
we can now retrieve a set of most perceptually similar and dissimilar samples
from an existing atlas of labeled samples, to support and clarify the decision
made by the CNN model. Possible uses of this approach include for example
Computer-Aided Diagnosis (CAD) systems working with medical imaging data, such
as Magnetic Resonance Imaging (MRI) or Computed Tomography (CT) scans. We
demonstrate the viability of our method in the domain of medical imaging for
patient condition diagnosis, as the proposed decision explanation method via
similar ground truth domain examples (e.g. from existing diagnosis archives)
will be interpretable by the operating medical personnel. Our results indicate
that our method is capable of detecting distinct prediction strategies that
enable us to identify the most similar predictions from an existing atlas.
- Abstract(参考訳): 多くの実用的な応用において、ディープニューラルネットワークはブラックボックス予測器として運用されるのが一般的である。
解釈可能性への高い取り組みとこれらのシステムの信頼性への高い要求にもかかわらず、彼らは通常、決定を検証し、予測不能な失敗と予期せぬコーナーケースを処理するために、ループに人間のアクターを含める必要がある。
これは特に、医療診断のような障害クリティカルなアプリケーションドメインに当てはまる。
本稿では,畳み込みニューラルネットワーク(CNN)に基づくディープラーニングシステムを実行する人間専門家に対して,意思決定プロセスの説明と支援を行う新しいアプローチを提案する。
ガウス混合モデル(GMM)を介して訓練されたCNNの層上でのアクティベーション統計をモデル化することにより、入力サンプルがどのようにCNNによって処理されるかを記述するバイナリベクトル空間における新しい知覚コードを開発する。
この知覚的符号化空間におけるサンプルのペア間距離を測定することで、任意の新しい入力サンプルに対して、ラベル付きサンプルの既存のアトラスから最も知覚的に類似した異種サンプルの集合を検索し、CNNモデルによる決定を支持し、明確化することができる。
このアプローチの考えられる用途には、例えば、磁気共鳴画像(mri)やctスキャンなどの医療画像データを扱うコンピュータ支援診断(cad)システムなどがある。
患者診断のための医用画像領域における本手法の有効性を, 類似した真理領域の例(例)を用いた意思決定方法として示す。
既存の診断アーカイブから)は、手術中の医療関係者によって解釈される。
以上の結果から,本手法は既存のアトラスから最も類似した予測を識別できる別個の予測戦略を検出することができることが示された。
関連論文リスト
- Analyzing the Effect of $k$-Space Features in MRI Classification Models [0.0]
医用イメージングに適した説明可能なAI手法を開発した。
我々は、画像領域と周波数領域の両方にわたるMRIスキャンを分析する畳み込みニューラルネットワーク(CNN)を採用している。
このアプローチは、初期のトレーニング効率を高めるだけでなく、追加機能がモデル予測にどのように影響するかの理解を深めます。
論文 参考訳(メタデータ) (2024-09-20T15:43:26Z) - Out-of-distribution Detection in Medical Image Analysis: A survey [12.778646136644399]
コンピュータ支援診断は、ディープラーニングベースのコンピュータビジョン技術の発展の恩恵を受けている。
従来の教師付きディープラーニング手法は、テストサンプルがトレーニングデータと同じ分布から引き出されることを前提としている。
実際の臨床シナリオでは分布外のサンプルに遭遇し、深層学習に基づく医用画像解析タスクにおいてサイレント障害を引き起こす可能性がある。
論文 参考訳(メタデータ) (2024-04-28T18:51:32Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - An Uncertainty-Driven GCN Refinement Strategy for Organ Segmentation [53.425900196763756]
本研究では,不確実性解析とグラフ畳み込みネットワークに基づくセグメンテーション改善手法を提案する。
半教師付きグラフ学習問題を定式化するために、特定の入力ボリュームにおける畳み込みネットワークの不確実性レベルを用いる。
本手法は膵臓で1%,脾臓で2%向上し,最先端のCRF改善法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-06T18:55:07Z) - Domain Shift in Computer Vision models for MRI data analysis: An
Overview [64.69150970967524]
機械学習とコンピュータビジョン手法は、医用画像解析において優れた性能を示している。
しかし、現在臨床応用はごくわずかである。
異なるソースや取得ドメインのデータへのモデルの不適切な転送性は、その理由の1つです。
論文 参考訳(メタデータ) (2020-10-14T16:34:21Z) - Explaining Clinical Decision Support Systems in Medical Imaging using
Cycle-Consistent Activation Maximization [112.2628296775395]
ディープニューラルネットワークを用いた臨床意思決定支援は、着実に関心が高まりつつあるトピックとなっている。
臨床医は、その根底にある意思決定プロセスが不透明で理解しにくいため、この技術の採用をためらうことが多い。
そこで我々は,より小さなデータセットであっても,分類器決定の高品質な可視化を生成するCycleGANアクティベーションに基づく,新たな意思決定手法を提案する。
論文 参考訳(メタデータ) (2020-10-09T14:39:27Z) - Domain Generalization for Medical Imaging Classification with
Linear-Dependency Regularization [59.5104563755095]
本稿では,医用画像分類分野におけるディープニューラルネットワークの一般化能力向上のための,シンプルだが効果的なアプローチを提案する。
医用画像の領域変数がある程度コンパクトであることに感銘を受けて,変分符号化による代表的特徴空間の学習を提案する。
論文 参考訳(メタデータ) (2020-09-27T12:30:30Z) - Uncertainty Quantification using Variational Inference for Biomedical Image Segmentation [0.0]
我々は,脳腫瘍画像のセグメント化のための変分推論技術に基づくエンコーダデコーダアーキテクチャを用いる。
Dice similarity Coefficient (DSC) と Intersection Over Union (IOU) を指標として, 公開されているBRATSデータセットの評価を行った。
論文 参考訳(メタデータ) (2020-08-12T20:08:04Z) - An Investigation of Interpretability Techniques for Deep Learning in
Predictive Process Analytics [2.162419921663162]
本稿では、深層ニューラルネットワークとランダムフォレストという、医学的意思決定文学において最も成功した学習アルゴリズムの2つの解釈可能性手法について検討する。
我々は,患者のがんの種類を予測するためのモデルを学ぶ。
がんのタイプに関する有用な洞察を提供する予測に使用される特定の特徴と、十分に一般化されていない特徴が見られます。
論文 参考訳(メタデータ) (2020-02-21T09:14:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。