論文の概要: A Cognitive Explainer for Fetal ultrasound images classifier Based on
Medical Concepts
- arxiv url: http://arxiv.org/abs/2201.07798v3
- Date: Tue, 18 Apr 2023 03:00:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 19:19:47.319494
- Title: A Cognitive Explainer for Fetal ultrasound images classifier Based on
Medical Concepts
- Title(参考訳): 医療概念に基づく胎児超音波画像分類器の認知的説明
- Authors: Yingni Wanga, Yunxiao Liua, Licong Dongc, Xuzhou Wua, Huabin Zhangb,
Qiongyu Yed, Desheng Sunc, Xiaobo Zhoue, Kehong Yuan
- Abstract要約: 本稿では,重要な医療概念に基づく解釈可能なフレームワークを提案する。
概念に基づくグラフ畳み込みニューラルネットワーク(GCN)を用いて、重要な医療概念間の関係を構築する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fetal standard scan plane detection during 2-D mid-pregnancy examinations is
a highly complex task, which requires extensive medical knowledge and years of
training. Although deep neural networks (DNN) can assist inexperienced
operators in these tasks, their lack of transparency and interpretability limit
their application. Despite some researchers have been committed to visualizing
the decision process of DNN, most of them only focus on the pixel-level
features and do not take into account the medical prior knowledge. In this
work, we propose an interpretable framework based on key medical concepts,
which provides explanations from the perspective of clinicians' cognition.
Moreover, we utilize a concept-based graph convolutional neural(GCN) network to
construct the relationships between key medical concepts. Extensive
experimental analysis on a private dataset has shown that the proposed method
provides easy-to-understand insights about reasoning results for clinicians.
- Abstract(参考訳): 妊娠中の2次元検査における胎児の標準スキャン平面検出は、医学的知識と長年の訓練を必要とする非常に複雑な作業である。
ディープニューラルネットワーク(DNN)は、これらのタスクで経験の浅い演算子を支援することができるが、透明性の欠如と解釈容易性がアプリケーションを制限する。
一部の研究者はDNNの決定過程を可視化することにコミットしているが、そのほとんどはピクセルレベルの特徴のみに焦点を当てており、医学的な事前知識を考慮していない。
本研究は, 臨床医の認知の観点からの説明を提供する, キー・メディカル・コンセプトに基づく解釈可能な枠組みを提案する。
さらに,概念に基づくグラフ畳み込みニューラルネットワーク(GCN)を用いて,重要な医療概念間の関係を構築する。
個人データセットの広範な実験分析により,提案手法が臨床医の推論結果に対する理解の容易な洞察を提供することが示された。
関連論文リスト
- LCE: A Framework for Explainability of DNNs for Ultrasound Image Based on Concept Discovery [5.236608333075716]
本稿では,帰納的手法と概念に基づく手法を組み合わせたLesion Concept Explainer (LCE) フレームワークを提案する。
提案するフレームワークは,忠実度と可理解性の両方の観点から評価する。
一般用および民間用乳房超音波データセットを評価したところ,LCEは一般的に用いられている説明可能性法と比較して良好な性能を示した。
論文 参考訳(メタデータ) (2024-08-19T11:13:49Z) - Influence based explainability of brain tumors segmentation in multimodal Magnetic Resonance Imaging [3.1994667952195273]
本稿では,医用画像タスクのセグメンテーションに焦点をあて,これまで提案されてきたほとんどの説明可能性手法が入力唾液マップの視覚的説明を提供する。
この研究の目的は、もともと分類タスクのために提案された影響ベースの説明可能性アルゴリズムであるTracInを拡張し、実装し、テストすることである。
論文 参考訳(メタデータ) (2024-04-05T17:07:21Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - NeuroExplainer: Fine-Grained Attention Decoding to Uncover Cortical
Development Patterns of Preterm Infants [73.85768093666582]
我々はNeuroExplainerと呼ばれる説明可能な幾何学的深層ネットワークを提案する。
NeuroExplainerは、早産に伴う幼児の皮質発達パターンの解明に使用される。
論文 参考訳(メタデータ) (2023-01-01T12:48:12Z) - Interpretable Vertebral Fracture Diagnosis [69.68641439851777]
ブラックボックスニューラルネットワークモデルは、骨折診断のための臨床的に関連する特徴を学習する。
この研究は、CT画像における脊椎骨折の診断にネットワークが使用する概念を特定する。
論文 参考訳(メタデータ) (2022-03-30T13:07:41Z) - Leveraging Human Selective Attention for Medical Image Analysis with
Limited Training Data [72.1187887376849]
選択的な注意機構は、注意散らしの存在を無視することで、認知システムがタスク関連視覚的手がかりに焦点を合わせるのに役立つ。
本稿では,医療画像解析タスクにおいて,小さなトレーニングデータを用いたガベージを利用したフレームワークを提案する。
本手法は腫瘍の3次元分割と2次元胸部X線分類において優れた性能を示す。
論文 参考訳(メタデータ) (2021-12-02T07:55:25Z) - Transparency of Deep Neural Networks for Medical Image Analysis: A
Review of Interpretability Methods [3.3918638314432936]
ディープニューラルネットワークは、多くのタスクにおいて、臨床医と同じまたはより良いパフォーマンスを示している。
現在のディープ・ニューラル・ソリューションは、意思決定プロセスに関する具体的な知識の欠如からブラックボックスと呼ばれる。
通常の臨床ワークフローに組み込む前に、ディープニューラルネットワークの解釈可能性を保証する必要がある。
論文 参考訳(メタデータ) (2021-11-01T01:42:26Z) - Explaining Clinical Decision Support Systems in Medical Imaging using
Cycle-Consistent Activation Maximization [112.2628296775395]
ディープニューラルネットワークを用いた臨床意思決定支援は、着実に関心が高まりつつあるトピックとなっている。
臨床医は、その根底にある意思決定プロセスが不透明で理解しにくいため、この技術の採用をためらうことが多い。
そこで我々は,より小さなデータセットであっても,分類器決定の高品質な可視化を生成するCycleGANアクティベーションに基づく,新たな意思決定手法を提案する。
論文 参考訳(メタデータ) (2020-10-09T14:39:27Z) - Domain Generalization for Medical Imaging Classification with
Linear-Dependency Regularization [59.5104563755095]
本稿では,医用画像分類分野におけるディープニューラルネットワークの一般化能力向上のための,シンプルだが効果的なアプローチを提案する。
医用画像の領域変数がある程度コンパクトであることに感銘を受けて,変分符号化による代表的特徴空間の学習を提案する。
論文 参考訳(メタデータ) (2020-09-27T12:30:30Z) - On Interpretability of Deep Learning based Skin Lesion Classifiers using
Concept Activation Vectors [6.188009802619095]
メラノーマ, メラノーマ, セボリックケラトーシスの3種類の皮膚腫瘍の分類には, 十分に訓練された高性能ニューラルネットワークを用いている。
概念活性化ベクトル(CAV)の助けを借りて、人間の理解可能な概念をRECOD画像分類モデルにマッピングする
論文 参考訳(メタデータ) (2020-05-05T08:27:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。