論文の概要: Cognitive Explainers of Graph Neural Networks Based on Medical Concepts
- arxiv url: http://arxiv.org/abs/2201.07798v1
- Date: Wed, 19 Jan 2022 14:44:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-22 04:57:30.923368
- Title: Cognitive Explainers of Graph Neural Networks Based on Medical Concepts
- Title(参考訳): 医学的概念に基づくグラフニューラルネットワークの認知的説明
- Authors: Yingni Wang, Kehong Yuan
- Abstract要約: そこで我々は,CNNが医師の認知の観点から説明できる,重要な医療概念に基づく解釈可能なフレームワークを提案する。
本稿では,概念に基づくグラフ畳み込みニューラルネットワークを用いて,重要な医療概念間の関係を構築する超音波標準面の自動認識フレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although deep neural networks (DNN) have achieved state-of-the-art
performance in various fields, some unexpected errors are often found in the
neural network, which is very dangerous for some tasks requiring high
reliability and high security.The non-transparency and unexplainably of CNN
still limit its application in many fields, such as medical care and finance.
Despite current studies that have been committed to visualizing the decision
process of DNN, most of these methods focus on the low level and do not take
into account the prior knowledge of medicine.In this work, we propose an
interpretable framework based on key medical concepts, enabling CNN to explain
from the perspective of doctors' cognition.We propose an interpretable
automatic recognition framework for the ultrasonic standard plane, which uses a
concept-based graph convolutional neural network to construct the relationships
between key medical concepts, to obtain an interpretation consistent with a
doctor's cognition.
- Abstract(参考訳): ディープ・ニューラル・ネットワーク(dnn)は様々な分野で最先端のパフォーマンスを達成しているが、いくつかの予期せぬエラーは、高い信頼性と高いセキュリティを必要とするいくつかのタスクにとって非常に危険であるニューラルネットワークでしばしば見られる。
Despite current studies that have been committed to visualizing the decision process of DNN, most of these methods focus on the low level and do not take into account the prior knowledge of medicine.In this work, we propose an interpretable framework based on key medical concepts, enabling CNN to explain from the perspective of doctors' cognition.We propose an interpretable automatic recognition framework for the ultrasonic standard plane, which uses a concept-based graph convolutional neural network to construct the relationships between key medical concepts, to obtain an interpretation consistent with a doctor's cognition.
関連論文リスト
- LCE: A Framework for Explainability of DNNs for Ultrasound Image Based on Concept Discovery [5.236608333075716]
本稿では,帰納的手法と概念に基づく手法を組み合わせたLesion Concept Explainer (LCE) フレームワークを提案する。
提案するフレームワークは,忠実度と可理解性の両方の観点から評価する。
一般用および民間用乳房超音波データセットを評価したところ,LCEは一般的に用いられている説明可能性法と比較して良好な性能を示した。
論文 参考訳(メタデータ) (2024-08-19T11:13:49Z) - Influence based explainability of brain tumors segmentation in multimodal Magnetic Resonance Imaging [3.1994667952195273]
本稿では,医用画像タスクのセグメンテーションに焦点をあて,これまで提案されてきたほとんどの説明可能性手法が入力唾液マップの視覚的説明を提供する。
この研究の目的は、もともと分類タスクのために提案された影響ベースの説明可能性アルゴリズムであるTracInを拡張し、実装し、テストすることである。
論文 参考訳(メタデータ) (2024-04-05T17:07:21Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - NeuroExplainer: Fine-Grained Attention Decoding to Uncover Cortical
Development Patterns of Preterm Infants [73.85768093666582]
我々はNeuroExplainerと呼ばれる説明可能な幾何学的深層ネットワークを提案する。
NeuroExplainerは、早産に伴う幼児の皮質発達パターンの解明に使用される。
論文 参考訳(メタデータ) (2023-01-01T12:48:12Z) - Interpretable Vertebral Fracture Diagnosis [69.68641439851777]
ブラックボックスニューラルネットワークモデルは、骨折診断のための臨床的に関連する特徴を学習する。
この研究は、CT画像における脊椎骨折の診断にネットワークが使用する概念を特定する。
論文 参考訳(メタデータ) (2022-03-30T13:07:41Z) - Leveraging Human Selective Attention for Medical Image Analysis with
Limited Training Data [72.1187887376849]
選択的な注意機構は、注意散らしの存在を無視することで、認知システムがタスク関連視覚的手がかりに焦点を合わせるのに役立つ。
本稿では,医療画像解析タスクにおいて,小さなトレーニングデータを用いたガベージを利用したフレームワークを提案する。
本手法は腫瘍の3次元分割と2次元胸部X線分類において優れた性能を示す。
論文 参考訳(メタデータ) (2021-12-02T07:55:25Z) - Transparency of Deep Neural Networks for Medical Image Analysis: A
Review of Interpretability Methods [3.3918638314432936]
ディープニューラルネットワークは、多くのタスクにおいて、臨床医と同じまたはより良いパフォーマンスを示している。
現在のディープ・ニューラル・ソリューションは、意思決定プロセスに関する具体的な知識の欠如からブラックボックスと呼ばれる。
通常の臨床ワークフローに組み込む前に、ディープニューラルネットワークの解釈可能性を保証する必要がある。
論文 参考訳(メタデータ) (2021-11-01T01:42:26Z) - Explaining Clinical Decision Support Systems in Medical Imaging using
Cycle-Consistent Activation Maximization [112.2628296775395]
ディープニューラルネットワークを用いた臨床意思決定支援は、着実に関心が高まりつつあるトピックとなっている。
臨床医は、その根底にある意思決定プロセスが不透明で理解しにくいため、この技術の採用をためらうことが多い。
そこで我々は,より小さなデータセットであっても,分類器決定の高品質な可視化を生成するCycleGANアクティベーションに基づく,新たな意思決定手法を提案する。
論文 参考訳(メタデータ) (2020-10-09T14:39:27Z) - Domain Generalization for Medical Imaging Classification with
Linear-Dependency Regularization [59.5104563755095]
本稿では,医用画像分類分野におけるディープニューラルネットワークの一般化能力向上のための,シンプルだが効果的なアプローチを提案する。
医用画像の領域変数がある程度コンパクトであることに感銘を受けて,変分符号化による代表的特徴空間の学習を提案する。
論文 参考訳(メタデータ) (2020-09-27T12:30:30Z) - On Interpretability of Deep Learning based Skin Lesion Classifiers using
Concept Activation Vectors [6.188009802619095]
メラノーマ, メラノーマ, セボリックケラトーシスの3種類の皮膚腫瘍の分類には, 十分に訓練された高性能ニューラルネットワークを用いている。
概念活性化ベクトル(CAV)の助けを借りて、人間の理解可能な概念をRECOD画像分類モデルにマッピングする
論文 参考訳(メタデータ) (2020-05-05T08:27:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。