論文の概要: Transparency of Deep Neural Networks for Medical Image Analysis: A
Review of Interpretability Methods
- arxiv url: http://arxiv.org/abs/2111.02398v1
- Date: Mon, 1 Nov 2021 01:42:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-06 06:31:53.789309
- Title: Transparency of Deep Neural Networks for Medical Image Analysis: A
Review of Interpretability Methods
- Title(参考訳): 医用画像解析のためのディープニューラルネットワークの透明性:解釈可能性の検討
- Authors: Zohaib Salahuddin, Henry C Woodruff, Avishek Chatterjee and Philippe
Lambin
- Abstract要約: ディープニューラルネットワークは、多くのタスクにおいて、臨床医と同じまたはより良いパフォーマンスを示している。
現在のディープ・ニューラル・ソリューションは、意思決定プロセスに関する具体的な知識の欠如からブラックボックスと呼ばれる。
通常の臨床ワークフローに組み込む前に、ディープニューラルネットワークの解釈可能性を保証する必要がある。
- 参考スコア(独自算出の注目度): 3.3918638314432936
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial Intelligence has emerged as a useful aid in numerous clinical
applications for diagnosis and treatment decisions. Deep neural networks have
shown same or better performance than clinicians in many tasks owing to the
rapid increase in the available data and computational power. In order to
conform to the principles of trustworthy AI, it is essential that the AI system
be transparent, robust, fair and ensure accountability. Current deep neural
solutions are referred to as black-boxes due to a lack of understanding of the
specifics concerning the decision making process. Therefore, there is a need to
ensure interpretability of deep neural networks before they can be incorporated
in the routine clinical workflow. In this narrative review, we utilized
systematic keyword searches and domain expertise to identify nine different
types of interpretability methods that have been used for understanding deep
learning models for medical image analysis applications based on the type of
generated explanations and technical similarities. Furthermore, we report the
progress made towards evaluating the explanations produced by various
interpretability methods. Finally we discuss limitations, provide guidelines
for using interpretability methods and future directions concerning the
interpretability of deep neural networks for medical imaging analysis.
- Abstract(参考訳): 人工知能は、診断と治療決定のための多くの臨床応用に有用な助けとして登場した。
ディープニューラルネットワークは、利用可能なデータと計算能力の急速な増加により、多くのタスクで臨床医と同等あるいは優れたパフォーマンスを示している。
信頼できるAIの原則に従うためには、AIシステムは透明性、堅牢、公正、そして説明責任を保証することが不可欠である。
現在のディープニューラルソリューションは、意思決定プロセスに関する詳細の理解が欠如しているため、ブラックボックスと呼ばれる。
したがって、日常的な臨床ワークフローに組み込む前に、ディープニューラルネットワークの解釈可能性を確保する必要がある。
本総説では, 医用画像解析用深層学習モデルの理解に用いられてきた9種類の解釈可能性手法を, 生成した説明書の種類と技術的類似性に基づいて, 体系的キーワード検索と専門知識を用いて同定した。
さらに,様々な解釈方法によって得られた説明を評価するための進歩について報告する。
最後に, 医用画像解析における深部ニューラルネットワークの解釈可能性に関する限界, 解釈可能性手法と今後の方向性について考察する。
関連論文リスト
- Aligning Characteristic Descriptors with Images for Human-Expert-like Explainability [0.0]
法執行機関や医療診断のようなミッションクリティカルな領域では、ディープラーニングモデルのアウトプットを説明・解釈する能力が不可欠である。
本稿では,特徴記述子を用いたモデル決定手法を提案する。
論文 参考訳(メタデータ) (2024-11-06T15:47:18Z) - DARE: Towards Robust Text Explanations in Biomedical and Healthcare
Applications [54.93807822347193]
帰属ロバスト性評価手法を与えられたドメインに適応させ、ドメイン固有の妥当性を考慮する方法を示す。
次に,DAREが特徴とする脆さを軽減するために,対人訓練とFAR訓練の2つの方法を提案する。
最後に,確立した3つのバイオメディカル・ベンチマークを用いて実験を行い,本手法を実証的に検証した。
論文 参考訳(メタデータ) (2023-07-05T08:11:40Z) - Adversarial Attacks on the Interpretation of Neuron Activation
Maximization [70.5472799454224]
アクティベーション最大化アプローチは、訓練されたディープラーニングモデルの解釈と解析に使用される。
本研究では,解釈を欺くためにモデルを操作する敵の概念を考察する。
論文 参考訳(メタデータ) (2023-06-12T19:54:33Z) - NeuroExplainer: Fine-Grained Attention Decoding to Uncover Cortical
Development Patterns of Preterm Infants [73.85768093666582]
我々はNeuroExplainerと呼ばれる説明可能な幾何学的深層ネットワークを提案する。
NeuroExplainerは、早産に伴う幼児の皮質発達パターンの解明に使用される。
論文 参考訳(メタデータ) (2023-01-01T12:48:12Z) - Explainable Artificial Intelligence in Retinal Imaging for the detection
of Systemic Diseases [0.0]
本研究では,Deep Convolutional Neural Networks(CNN)を直接使用せずに,説明可能な段階的な段階付けプロセスを評価することを目的とする。
我々は,眼底画像の網膜血管評価を行うクリニアン・イン・ザ・ループ支援インテリジェントワークフローを提案する。
半自動的な方法論は、臨床医からのより多くのインプットと解釈を持つ医療アプリケーションにおいて、AIに対する連合的なアプローチを持つことを目的としている。
論文 参考訳(メタデータ) (2022-12-14T07:00:31Z) - Synergistic information supports modality integration and flexible
learning in neural networks solving multiple tasks [107.8565143456161]
本稿では,様々な認知タスクを行う単純な人工ニューラルネットワークが採用する情報処理戦略について検討する。
結果は、ニューラルネットワークが複数の多様なタスクを学習するにつれて、シナジーが増加することを示している。
トレーニング中に無作為にニューロンを停止させると、ネットワークの冗長性が増加し、ロバスト性の増加に対応する。
論文 参考訳(メタデータ) (2022-10-06T15:36:27Z) - An Interactive Interpretability System for Breast Cancer Screening with
Deep Learning [11.28741778902131]
乳がん検診の放射線科医を支援するために,最先端の解釈可能性技術を活用するインタラクティブシステムを提案する。
本システムは, 深層学習モデルを放射線学者のワークフローに統合し, モデル決定プロセスの理解を促進するために, 新たなインタラクションを提供する。
論文 参考訳(メタデータ) (2022-09-30T02:19:49Z) - A Cognitive Explainer for Fetal ultrasound images classifier Based on
Medical Concepts [0.0]
本稿では,重要な医療概念に基づく解釈可能なフレームワークを提案する。
概念に基づくグラフ畳み込みニューラルネットワーク(GCN)を用いて、重要な医療概念間の関係を構築する。
論文 参考訳(メタデータ) (2022-01-19T14:44:36Z) - Improving Interpretability of Deep Neural Networks in Medical Diagnosis
by Investigating the Individual Units [24.761080054980713]
入力画像における重要な要素を可視化することにより,最近の帰属技術の有効性を実証し,診断の意思決定を説明する。
アンマキングマシンインテリジェンスの分析は、診断決定における説明可能性の必要性を示している。
論文 参考訳(メタデータ) (2021-07-19T11:49:31Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Domain Generalization for Medical Imaging Classification with
Linear-Dependency Regularization [59.5104563755095]
本稿では,医用画像分類分野におけるディープニューラルネットワークの一般化能力向上のための,シンプルだが効果的なアプローチを提案する。
医用画像の領域変数がある程度コンパクトであることに感銘を受けて,変分符号化による代表的特徴空間の学習を提案する。
論文 参考訳(メタデータ) (2020-09-27T12:30:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。