論文の概要: What do Deep Neural Networks Learn in Medical Images?
- arxiv url: http://arxiv.org/abs/2208.00953v1
- Date: Mon, 1 Aug 2022 16:05:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 14:15:25.895357
- Title: What do Deep Neural Networks Learn in Medical Images?
- Title(参考訳): ディープニューラルネットワークは医療画像で何を学ぶか?
- Authors: Yusuf Brima and Marcellin Atemkeng
- Abstract要約: 本稿では,適応経路に基づく勾配積分手法を用いた新しい帰属フレームワークを提案する。
結果は、医療の成果を改善するためにドメインエキスパートへの信頼を構築するという有望な方向性を示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning is increasingly gaining rapid adoption in healthcare to help
improve patient outcomes. This is more so in medical image analysis which
requires extensive training to gain the requisite expertise to become a trusted
practitioner. However, while deep learning techniques have continued to provide
state-of-the-art predictive performance, one of the primary challenges that
stands to hinder this progress in healthcare is the opaque nature of the
inference mechanism of these models. So, attribution has a vital role in
building confidence in stakeholders for the predictions made by deep learning
models to inform clinical decisions. This work seeks to answer the question:
what do deep neural network models learn in medical images? In that light, we
present a novel attribution framework using adaptive path-based gradient
integration techniques. Results show a promising direction of building trust in
domain experts to improve healthcare outcomes by allowing them to understand
the input-prediction correlative structures, discover new bio-markers, and
reveal potential model biases.
- Abstract(参考訳): 深層学習は、患者の成果を改善するために、医療に急速に採用されつつある。
これは、信頼できる実践者になるための必要な専門知識を得るために、広範なトレーニングを必要とする医用画像分析においても同様である。
しかし、ディープラーニング技術は最先端の予測性能を提供し続けているが、医療におけるこの進歩を妨げる主な課題の1つは、これらのモデルの推論メカニズムが不透明であることだ。
したがって、属性は、臨床上の決定を伝えるための深層学習モデルによる予測に対する利害関係者の信頼を高める上で重要な役割を果たす。
ディープニューラルネットワークモデルは、医療画像で何を学ぶのか?
そこで我々は,適応経路に基づく勾配積分手法を用いた新しい帰属フレームワークを提案する。
結果は、入力予測相関構造を理解し、新しいバイオマーカーを発見し、潜在的なモデルバイアスを明らかにすることによって、医療結果を改善するためのドメインエキスパートへの信頼を構築する、有望な方向を示す。
関連論文リスト
- NeuroExplainer: Fine-Grained Attention Decoding to Uncover Cortical
Development Patterns of Preterm Infants [77.56132757244211]
我々はNeuroExplainerと呼ばれる説明可能な幾何学的深層ネットワークを提案する。
NeuroExplainerは、早産に伴う幼児の皮質発達パターンの解明に使用される。
論文 参考訳(メタデータ) (2023-01-01T12:48:12Z) - A Trustworthy Framework for Medical Image Analysis with Deep Learning [71.48204494889505]
TRUDLMIAは医用画像解析のための信頼できるディープラーニングフレームワークである。
新型コロナウイルス(COVID-19)などの公衆衛生危機への対応に深層学習の活用を推進していくため、研究者や臨床医を支援することが期待されている。
論文 参考訳(メタデータ) (2022-12-06T05:30:22Z) - An Interactive Interpretability System for Breast Cancer Screening with
Deep Learning [11.28741778902131]
乳がん検診の放射線科医を支援するために,最先端の解釈可能性技術を活用するインタラクティブシステムを提案する。
本システムは, 深層学習モデルを放射線学者のワークフローに統合し, モデル決定プロセスの理解を促進するために, 新たなインタラクションを提供する。
論文 参考訳(メタデータ) (2022-09-30T02:19:49Z) - Towards Trustworthy Healthcare AI: Attention-Based Feature Learning for
COVID-19 Screening With Chest Radiography [70.37371604119826]
信頼性を備えたAIモデルの構築は、特に医療などの規制領域において重要である。
これまでの研究では、畳み込みニューラルネットワークをバックボーンアーキテクチャとして使用していた。
本稿では,視覚変換器を用いた特徴学習手法を提案する。
論文 参考訳(メタデータ) (2022-07-19T14:55:42Z) - What Do You See in this Patient? Behavioral Testing of Clinical NLP
Models [69.09570726777817]
本稿では,入力の変化に関する臨床結果モデルの振る舞いを評価する拡張可能なテストフレームワークを提案する。
私たちは、同じデータを微調整しても、モデル行動は劇的に変化し、最高のパフォーマンスのモデルが常に最も医学的に可能なパターンを学習していないことを示しています。
論文 参考訳(メタデータ) (2021-11-30T15:52:04Z) - Transparency of Deep Neural Networks for Medical Image Analysis: A
Review of Interpretability Methods [3.3918638314432936]
ディープニューラルネットワークは、多くのタスクにおいて、臨床医と同じまたはより良いパフォーマンスを示している。
現在のディープ・ニューラル・ソリューションは、意思決定プロセスに関する具体的な知識の欠如からブラックボックスと呼ばれる。
通常の臨床ワークフローに組み込む前に、ディープニューラルネットワークの解釈可能性を保証する必要がある。
論文 参考訳(メタデータ) (2021-11-01T01:42:26Z) - Survival-oriented embeddings for improving accessibility to complex data
structures [2.1847940931069605]
本稿では、生存分析の文脈における深層ニューラルネットワークの直接解釈を支援するハザード規則化変分オートエンコーダを提案する。
肝腫瘍患者の腹部CT検査と生存時間について検討した。
論文 参考訳(メタデータ) (2021-10-21T17:38:08Z) - On the Robustness of Pretraining and Self-Supervision for a Deep
Learning-based Analysis of Diabetic Retinopathy [70.71457102672545]
糖尿病網膜症における訓練方法の違いによる影響を比較検討した。
本稿では,定量的性能,学習した特徴表現の統計,解釈可能性,画像歪みに対する頑健性など,さまざまな側面について検討する。
以上の結果から,ImageNet事前学習モデルでは,画像歪みに対する性能,一般化,堅牢性が著しく向上していることが示唆された。
論文 参考訳(メタデータ) (2021-06-25T08:32:45Z) - Interpreting Deep Learning based Cerebral Palsy Prediction with Channel
Attention [12.83702462166513]
幼児の身体運動から脳性麻痺を予測するための深層学習モデルのためのチャネルアテンションモジュールを提案する。
本システムは91.67%の精度を達成し,他の最先端のディープラーニング手法を抑圧する。
論文 参考訳(メタデータ) (2021-06-08T15:57:17Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - An Investigation of Interpretability Techniques for Deep Learning in
Predictive Process Analytics [2.162419921663162]
本稿では、深層ニューラルネットワークとランダムフォレストという、医学的意思決定文学において最も成功した学習アルゴリズムの2つの解釈可能性手法について検討する。
我々は,患者のがんの種類を予測するためのモデルを学ぶ。
がんのタイプに関する有用な洞察を提供する予測に使用される特定の特徴と、十分に一般化されていない特徴が見られます。
論文 参考訳(メタデータ) (2020-02-21T09:14:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。