論文の概要: Interpretable Factorization for Neural Network ECG Models
- arxiv url: http://arxiv.org/abs/2006.15189v1
- Date: Fri, 26 Jun 2020 19:32:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 21:41:17.613204
- Title: Interpretable Factorization for Neural Network ECG Models
- Title(参考訳): ニューラルネットワークECGモデルの解釈因子化
- Authors: Christopher Snyder and Sriram Vishwanath
- Abstract要約: 我々は、ディープニューラルネットワークをブラックボックス変数からなる階層式に分解する方法を示す。
この選択は、ECGサンプルの視覚的合成スケッチで識別された解釈可能なコンポーネントモデルが得られることを実証する。
- 参考スコア(独自算出の注目度): 10.223907995092835
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability of deep learning (DL) to improve the practice of medicine and its
clinical outcomes faces a looming obstacle: model interpretation. Without
description of how outputs are generated, a collaborating physician can neither
resolve when the model's conclusions are in conflict with his or her own, nor
learn to anticipate model behavior. Current research aims to interpret networks
that diagnose ECG recordings, which has great potential impact as recordings
become more personalized and widely deployed. A generalizable impact beyond
ECGs lies in the ability to provide a rich test-bed for the development of
interpretive techniques in medicine. Interpretive techniques for Deep Neural
Networks (DNNs), however, tend to be heuristic and observational in nature,
lacking the mathematical rigor one might expect in the analysis of math
equations. The motivation of this paper is to offer a third option, a
scientific approach. We treat the model output itself as a phenomenon to be
explained through component parts and equations governing their behavior. We
argue that these component parts should also be "black boxes" --additional
targets to interpret heuristically with clear functional connection to the
original. We show how to rigorously factor a DNN into a hierarchical equation
consisting of black box variables. This is not a subdivision into physical
parts, like an organism into its cells; it is but one choice of an equation
into a collection of abstract functions. Yet, for DNNs trained to identify
normal ECG waveforms on PhysioNet 2017 Challenge data, we demonstrate this
choice yields interpretable component models identified with visual composite
sketches of ECG samples in corresponding input regions. Moreover, the recursion
distills this interpretation: additional factorization of component black boxes
corresponds to ECG partitions that are more morphologically pure.
- Abstract(参考訳): 医学の実践を改善するための深層学習(DL)の能力とその臨床成績は、悲惨な障害に直面している。
アウトプットの生成方法が説明されていないため、協力的な医師は、モデルの結論が自身のものと矛盾している場合、あるいはモデル行動を予測することを学ばない。
現在の研究は、ECG記録を診断するネットワークを解釈することを目的としており、記録がよりパーソナライズされ、広く展開されるようになるにつれて、大きな影響を与える可能性がある。
ECGを超えた一般的な影響は、医学における解釈技術の発展のためのリッチなテストベッドを提供する能力にある。
しかし、ディープニューラルネットワーク(DNN)の解釈技術は、自然界においてヒューリスティックで観察的であり、数学方程式の解析において期待できる数学的厳密さを欠いている。
本稿の動機は,第3の選択肢である科学的アプローチを提供することである。
我々は,モデル出力自体を,その振る舞いを規定する成分部分と方程式を通じて説明すべき現象として扱う。
我々は、これらのコンポーネント部品は、ヒューリスティックに元の機能的接続を明確に解釈するために、追加のターゲットである「ブラックボックス」であるべきだと主張する。
本稿では,dnnをブラックボックス変数からなる階層式に厳密に分解する方法を示す。
これは、生物のような物理的部分の細胞への部分分割ではなく、方程式の1つの選択から抽象的な関数の集合への部分分割である。
しかし、PhyloNet 2017 Challengeデータ上で通常のECG波形を識別する訓練を受けたDNNでは、対応する入力領域におけるECGサンプルの視覚的合成スケッチで識別された解釈可能なコンポーネントモデルが得られる。
さらに、再帰は、この解釈を蒸留する: 成分ブラックボックスのさらなる分解は、より形態的に純粋なECGパーティションに対応する。
関連論文リスト
- Do Graph Neural Networks Work for High Entropy Alloys? [12.002942104379986]
高エントロピー合金(HEA)は化学的な長距離秩序を欠き、現在のグラフ表現の適用性を制限する。
本稿では,HEA特性予測のための正確かつ解釈可能なGNNであるLESets機械学習モデルを紹介する。
第四紀HEAの力学特性のモデル化におけるLESetsの精度を実証する。
論文 参考訳(メタデータ) (2024-08-29T08:20:02Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Feature visualization for convolutional neural network models trained on
neuroimaging data [0.0]
畳み込みニューラルネットワーク(CNN)の機能可視化による最初の結果を示す。
我々は、MRIデータに基づく性分類や人為的病変分類など、さまざまなタスクのためにCNNを訓練した。
得られた画像は、その形状を含む人工的な病変の学習概念を明らかにするが、性分類タスクにおける抽象的な特徴を解釈することは困難である。
論文 参考訳(メタデータ) (2022-03-24T15:24:38Z) - Interpretable Convolutional Neural Networks for Subject-Independent
Motor Imagery Classification [22.488536453952964]
本稿では,脳コンピュータインタフェース(BCI)研究のための説明可能なディープラーニングモデルを提案する。
具体的には,運動画像(MI)タスクから得られる脳波信号を分類することを目的とする。
トポグラフィーでLRPの出力を示す熱マップを可視化し, 神経生理学的因子の同定を行った。
論文 参考訳(メタデータ) (2021-12-14T07:35:52Z) - Convolutional Motif Kernel Networks [1.104960878651584]
我々のモデルは、小さなデータセットでしっかりと学習でき、関連する医療予測タスクで最先端のパフォーマンスを達成できることを示す。
提案手法はDNAおよびタンパク質配列に利用することができる。
論文 参考訳(メタデータ) (2021-11-03T15:06:09Z) - Explicit Pairwise Factorized Graph Neural Network for Semi-Supervised
Node Classification [59.06717774425588]
本稿では,グラフ全体を部分的に観測されたマルコフ確率場としてモデル化するEPFGNN(Explicit Pairwise Factorized Graph Neural Network)を提案する。
出力-出力関係をモデル化するための明示的なペアワイズ要素を含み、入力-出力関係をモデル化するためにGNNバックボーンを使用する。
本研究では,グラフ上での半教師付きノード分類の性能を効果的に向上できることを示す。
論文 参考訳(メタデータ) (2021-07-27T19:47:53Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z) - Generalized Organ Segmentation by Imitating One-shot Reasoning using
Anatomical Correlation [55.1248480381153]
そこで我々は,アノテーション付きオルガンクラスから一般化されたオルガン概念を学習し,その概念を未知のクラスに転送するOrganNetを提案する。
そこで,OrganNetは臓器形態の幅広い変化に効果的に抵抗でき,一発分節タスクで最先端の結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-30T13:41:12Z) - An Uncertainty-Driven GCN Refinement Strategy for Organ Segmentation [53.425900196763756]
本研究では,不確実性解析とグラフ畳み込みネットワークに基づくセグメンテーション改善手法を提案する。
半教師付きグラフ学習問題を定式化するために、特定の入力ボリュームにおける畳み込みネットワークの不確実性レベルを用いる。
本手法は膵臓で1%,脾臓で2%向上し,最先端のCRF改善法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-06T18:55:07Z) - Interpretable Deep Models for Cardiac Resynchronisation Therapy Response
Prediction [8.152884957975354]
可変オートエンコーダ(VAE)に基づく画像分類のための新しいフレームワークを提案する。
VAEは、既存の臨床知識から引き出された説明に基づいて潜伏空間を解体する。
心臓磁気共鳴画像による心臓再同期療法(CRT)に対する心筋症の反応予測の枠組みを実証した。
論文 参考訳(メタデータ) (2020-06-24T15:35:47Z) - Neural Additive Models: Interpretable Machine Learning with Neural Nets [77.66871378302774]
ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて優れたパフォーマンスを達成した強力なブラックボックス予測器である。
本稿では、DNNの表現性と一般化した加法モデルの固有知性を組み合わせたニューラル付加モデル(NAM)を提案する。
NAMは、ニューラルネットワークの線形結合を学び、それぞれが単一の入力機能に付随する。
論文 参考訳(メタデータ) (2020-04-29T01:28:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。