論文の概要: Explainable deep learning models in medical image analysis
- arxiv url: http://arxiv.org/abs/2005.13799v1
- Date: Thu, 28 May 2020 06:31:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-27 04:51:43.131101
- Title: Explainable deep learning models in medical image analysis
- Title(参考訳): 医用画像解析における説明可能な深層学習モデル
- Authors: Amitojdeep Singh, Sourya Sengupta, Vasudevan Lakshminarayanan
- Abstract要約: 様々な医学的診断に非常に効果的で、その一部で人間の専門家を圧倒している。
最近の説明可能性研究は、モデルの決定に最も影響を及ぼす特徴を示すことを目的としている。
ここでは、様々な医療画像タスクに対する説明可能な深層学習の現在の応用について概説する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning methods have been very effective for a variety of medical
diagnostic tasks and has even beaten human experts on some of those. However,
the black-box nature of the algorithms has restricted clinical use. Recent
explainability studies aim to show the features that influence the decision of
a model the most. The majority of literature reviews of this area have focused
on taxonomy, ethics, and the need for explanations. A review of the current
applications of explainable deep learning for different medical imaging tasks
is presented here. The various approaches, challenges for clinical deployment,
and the areas requiring further research are discussed here from a practical
standpoint of a deep learning researcher designing a system for the clinical
end-users.
- Abstract(参考訳): 深層学習は様々な医学的診断タスクに非常に効果的であり、その一部で人間の専門家を圧倒している。
しかし、アルゴリズムのブラックボックスの性質は臨床使用を制限している。
最近の説明可能性研究は、モデルの決定に最も影響を及ぼす特徴を示すことを目的としている。
この領域の文献レビューの大半は分類学、倫理学、説明の必要性に焦点を当てている。
本稿では,様々な医用画像課題に対する説明可能な深層学習の応用について概観する。
本稿では, 深層学習研究者が臨床エンドユーザのためのシステムを設計する実践的視点から, 様々なアプローチ, 臨床展開の課題, さらなる研究を必要とする領域について論じる。
関連論文リスト
- How Deep is your Guess? A Fresh Perspective on Deep Learning for Medical Time-Series Imputation [6.547981908229007]
深層学習を用いた時系列計算のための新しい分類フレームワークを提案する。
文献における概念的ギャップと既存のレビューを識別することにより、ニューラル・インパテーション・フレームワークの帰納的バイアスに基づく分類法を考案する。
論文 参考訳(メタデータ) (2024-07-11T12:33:28Z) - Optimizing Skin Lesion Classification via Multimodal Data and Auxiliary
Task Integration [54.76511683427566]
本研究は, スマートフォンで撮影した画像と本質的な臨床および人口統計情報を統合することで, 皮膚病変を分類する新しいマルチモーダル手法を提案する。
この手法の特徴は、超高解像度画像予測に焦点を当てた補助的なタスクの統合である。
PAD-UFES20データセットを用いて,様々なディープラーニングアーキテクチャを用いて実験を行った。
論文 参考訳(メタデータ) (2024-02-16T05:16:20Z) - Beyond Known Reality: Exploiting Counterfactual Explanations for Medical
Research [1.6574413179773761]
本研究は, 医療研究における「もし」シナリオの適用可能性を探るために, 反事実的説明を用いている。
本研究の目的は, 小児後頭葉腫瘍の診断に使用されるMRI像の理解を深めることである。
論文 参考訳(メタデータ) (2023-07-05T09:14:09Z) - This Patient Looks Like That Patient: Prototypical Networks for
Interpretable Diagnosis Prediction from Clinical Text [56.32427751440426]
臨床実践においては、そのようなモデルは正確であるだけでなく、医師に解釈可能で有益な結果を与える必要がある。
本稿では,プロトタイプネットワークに基づく新しい手法であるProtoPatientを紹介する。
利用可能な2つの臨床データセット上でモデルを評価し、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-16T10:12:07Z) - Explainable Deep Learning Methods in Medical Image Classification: A
Survey [0.0]
最先端のディープラーニングモデルは、異なるタイプの医療データの分類において、人間レベルの精度を達成した。
これらのモデルは、主に解釈可能性の欠如のために、臨床ではほとんど採用されていない。
ディープラーニングモデルのブラックボックス性は、これらのモデルの意思決定プロセスを説明するための戦略を考案する必要性を高めている。
論文 参考訳(メタデータ) (2022-05-10T09:28:14Z) - BI-RADS-Net: An Explainable Multitask Learning Approach for Cancer
Diagnosis in Breast Ultrasound Images [69.41441138140895]
本稿では,乳房超音波画像における癌検出のための新しい深層学習手法であるBI-RADS-Netを紹介する。
提案手法は, 臨床診断に関連する特徴表現を学習することにより, 乳腺腫瘍の説明と分類を行うタスクを取り入れたものである。
臨床医が医療現場で診断・報告するために使用する形態学的特徴の観点から予測(良性または悪性)の説明が提供される。
論文 参考訳(メタデータ) (2021-10-05T19:14:46Z) - Recent advances and clinical applications of deep learning in medical
image analysis [7.132678647070632]
我々は最近200以上の論文をレビュー・要約し、様々な医用画像解析タスクにおける深層学習手法の適用の概要を概観した。
特に,医用画像における最先端の非教師あり半教師あり深層学習の進歩と貢献を強調した。
論文 参考訳(メタデータ) (2021-05-27T18:05:12Z) - Machine Learning Methods for Histopathological Image Analysis: A Review [62.14548392474976]
病理組織像 (HIs) は癌診断における腫瘍の種類を評価するための金の基準である。
このような分析を高速化する方法の1つは、コンピュータ支援診断(CAD)システムを使用することである。
論文 参考訳(メタデータ) (2021-02-07T19:12:32Z) - Deep Learning for Medical Anomaly Detection -- A Survey [38.32234937094937]
本調査は,医学的異常検出における一般的な深層学習手法の詳細な理論的解析である。
我々は、アーキテクチャの違いとトレーニングアルゴリズムを比較し、対比しながら、最先端技術の一貫性と体系的なレビューに貢献する。
さらに,既存の深部医学的異常検出技術の重要な限界について概説し,今後の研究の方向性について検討する。
論文 参考訳(メタデータ) (2020-12-04T02:09:37Z) - Explaining Clinical Decision Support Systems in Medical Imaging using
Cycle-Consistent Activation Maximization [112.2628296775395]
ディープニューラルネットワークを用いた臨床意思決定支援は、着実に関心が高まりつつあるトピックとなっている。
臨床医は、その根底にある意思決定プロセスが不透明で理解しにくいため、この技術の採用をためらうことが多い。
そこで我々は,より小さなデータセットであっても,分類器決定の高品質な可視化を生成するCycleGANアクティベーションに基づく,新たな意思決定手法を提案する。
論文 参考訳(メタデータ) (2020-10-09T14:39:27Z) - Weakly supervised multiple instance learning histopathological tumor
segmentation [51.085268272912415]
スライド画像全体のセグメント化のための弱教師付きフレームワークを提案する。
トレーニングモデルに複数のインスタンス学習スキームを利用する。
提案するフレームワークは,The Cancer Genome AtlasとPatchCamelyonデータセットのマルチロケーションとマルチ中心公開データに基づいて評価されている。
論文 参考訳(メタデータ) (2020-04-10T13:12:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。