論文の概要: Explainable Deep Learning in Healthcare: A Methodological Survey from an
Attribution View
- arxiv url: http://arxiv.org/abs/2112.02625v1
- Date: Sun, 5 Dec 2021 17:12:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-08 11:06:11.202473
- Title: Explainable Deep Learning in Healthcare: A Methodological Survey from an
Attribution View
- Title(参考訳): 医療における説明可能な深層学習 : 属性から見た方法論的考察
- Authors: Di Jin and Elena Sergeeva and Wei-Hung Weng and Geeticka Chauhan and
Peter Szolovits
- Abstract要約: 本稿では,今後の研究者や臨床医の方法論として,深部・包括的に解釈可能性の方法を紹介した。
我々は、これらの方法が医療問題にどのように適応し、適用されたか、また、医師がこれらのデータ駆動技術をよりよく理解するのにどのように役立つかについて議論する。
- 参考スコア(独自算出の注目度): 36.025217954247125
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The increasing availability of large collections of electronic health record
(EHR) data and unprecedented technical advances in deep learning (DL) have
sparked a surge of research interest in developing DL based clinical decision
support systems for diagnosis, prognosis, and treatment. Despite the
recognition of the value of deep learning in healthcare, impediments to further
adoption in real healthcare settings remain due to the black-box nature of DL.
Therefore, there is an emerging need for interpretable DL, which allows end
users to evaluate the model decision making to know whether to accept or reject
predictions and recommendations before an action is taken. In this review, we
focus on the interpretability of the DL models in healthcare. We start by
introducing the methods for interpretability in depth and comprehensively as a
methodological reference for future researchers or clinical practitioners in
this field. Besides the methods' details, we also include a discussion of
advantages and disadvantages of these methods and which scenarios each of them
is suitable for, so that interested readers can know how to compare and choose
among them for use. Moreover, we discuss how these methods, originally
developed for solving general-domain problems, have been adapted and applied to
healthcare problems and how they can help physicians better understand these
data-driven technologies. Overall, we hope this survey can help researchers and
practitioners in both artificial intelligence (AI) and clinical fields
understand what methods we have for enhancing the interpretability of their DL
models and choose the optimal one accordingly.
- Abstract(参考訳): 電子健康記録(ehr)データの大量収集とディープラーニング(dl)における前例のない技術的進歩は、診断、予後、治療のためのdlベースの臨床判断支援システムの開発に対する研究関心の高まりをもたらした。
医療における深層学習の価値は認識されているものの、実際の医療環境におけるさらなる導入を妨げる障害は、DLのブラックボックスの性質のため残っている。
そのため、解釈可能なDLの必要性が高まっており、エンドユーザーがモデル決定を評価し、アクションを行う前に予測やレコメンデーションを受理するか拒否するかを知ることができる。
本稿では,医療におけるDLモデルの解釈可能性に注目した。
本研究は,今後の研究者や臨床医の方法論として,深部・包括的に解釈可能性の手法を導入することから始める。
提案手法の詳細の他に,これらの手法の利点と欠点,および各手法がどのシナリオに適しているかについての議論も行っており,興味のある読者がそれらをどのように比較・選択するかを知ることができる。
さらに, 一般ドメイン問題を解くために開発されたこれらの手法が, 医療問題にどのように適応・適用され, 医師がこれらのデータ駆動技術を理解するのにどのように役立つかについて議論した。
全体として、この調査は、人工知能(AI)と臨床分野の両方の研究者や実践者が、DLモデルの解釈可能性を高めるための方法を理解し、それに応じて最適なものを選択するのに役立つことを願っている。
関連論文リスト
- An objective validation of polyp and instrument segmentation methods in
colonoscopy through Medico 2020 polyp segmentation and MedAI 2021
transparency challenges [58.402720481042365]
メディコオートマチックポリープセグメンテーション(Medico 2020)と「メディコ:医療画像の透明性(MedAI 2021)」コンペティション。
本報告では, それぞれのコントリビューションを包括的に分析し, ベストパフォーマンスメソッドの強さを強調し, クリニックへの臨床翻訳の可能性について考察する。
論文 参考訳(メタデータ) (2023-07-30T16:08:45Z) - Beyond Known Reality: Exploiting Counterfactual Explanations for Medical
Research [1.6574413179773761]
本研究は, 医療研究における「もし」シナリオの適用可能性を探るために, 反事実的説明を用いている。
本研究の目的は, 小児後頭葉腫瘍の診断に使用されるMRI像の理解を深めることである。
論文 参考訳(メタデータ) (2023-07-05T09:14:09Z) - Evaluation of Popular XAI Applied to Clinical Prediction Models: Can
They be Trusted? [2.0089256058364358]
透明性と説明可能性の欠如は、機械学習(ML)アルゴリズムの臨床的採用を妨げる。
本研究は、医療現場における予測モデルの説明に使用される2つの一般的なXAI手法を評価する。
論文 参考訳(メタデータ) (2023-06-21T02:29:30Z) - A Brief Review of Explainable Artificial Intelligence in Healthcare [7.844015105790313]
XAIは、AIアプリケーションを構築するための技術と方法を指す。
モデル説明可能性と解釈可能性は、医療実践におけるAIモデルのデプロイを成功させる上で不可欠である。
論文 参考訳(メタデータ) (2023-04-04T05:41:57Z) - SPeC: A Soft Prompt-Based Calibration on Performance Variability of
Large Language Model in Clinical Notes Summarization [50.01382938451978]
本稿では,ソフトプロンプトを用いたモデルに依存しないパイプラインを導入し,確率に基づく要約の利点を保ちながら分散を減少させる。
実験結果から,本手法は性能を向上するだけでなく,様々な言語モデルの分散を効果的に抑制することが明らかとなった。
論文 参考訳(メタデータ) (2023-03-23T04:47:46Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - Explainable Deep Learning Methods in Medical Image Classification: A
Survey [0.0]
最先端のディープラーニングモデルは、異なるタイプの医療データの分類において、人間レベルの精度を達成した。
これらのモデルは、主に解釈可能性の欠如のために、臨床ではほとんど採用されていない。
ディープラーニングモデルのブラックボックス性は、これらのモデルの意思決定プロセスを説明するための戦略を考案する必要性を高めている。
論文 参考訳(メタデータ) (2022-05-10T09:28:14Z) - Semi-Supervised Variational Reasoning for Medical Dialogue Generation [70.838542865384]
医療対話生成には,患者の状態と医師の行動の2つの重要な特徴がある。
医療対話生成のためのエンドツーエンドの変分推論手法を提案する。
行動分類器と2つの推論検出器から構成される医師政策ネットワークは、拡張推論能力のために提案される。
論文 参考訳(メタデータ) (2021-05-13T04:14:35Z) - Achievements and Challenges in Explaining Deep Learning based
Computer-Aided Diagnosis Systems [4.9449660544238085]
我々は、既知の疾患基準の検証のための説明可能なAIの開発における初期の成果について論じる。
我々は、臨床意思決定支援ツールとしてのAIの実践的応用の道に立つ、残る課題をいくつか強調する。
論文 参考訳(メタデータ) (2020-11-26T08:08:19Z) - Explaining Clinical Decision Support Systems in Medical Imaging using
Cycle-Consistent Activation Maximization [112.2628296775395]
ディープニューラルネットワークを用いた臨床意思決定支援は、着実に関心が高まりつつあるトピックとなっている。
臨床医は、その根底にある意思決定プロセスが不透明で理解しにくいため、この技術の採用をためらうことが多い。
そこで我々は,より小さなデータセットであっても,分類器決定の高品質な可視化を生成するCycleGANアクティベーションに基づく,新たな意思決定手法を提案する。
論文 参考訳(メタデータ) (2020-10-09T14:39:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。