論文の概要: Explainable Deep Learning in Healthcare: A Methodological Survey from an
Attribution View
- arxiv url: http://arxiv.org/abs/2112.02625v1
- Date: Sun, 5 Dec 2021 17:12:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-08 11:06:11.202473
- Title: Explainable Deep Learning in Healthcare: A Methodological Survey from an
Attribution View
- Title(参考訳): 医療における説明可能な深層学習 : 属性から見た方法論的考察
- Authors: Di Jin and Elena Sergeeva and Wei-Hung Weng and Geeticka Chauhan and
Peter Szolovits
- Abstract要約: 本稿では,今後の研究者や臨床医の方法論として,深部・包括的に解釈可能性の方法を紹介した。
我々は、これらの方法が医療問題にどのように適応し、適用されたか、また、医師がこれらのデータ駆動技術をよりよく理解するのにどのように役立つかについて議論する。
- 参考スコア(独自算出の注目度): 36.025217954247125
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The increasing availability of large collections of electronic health record
(EHR) data and unprecedented technical advances in deep learning (DL) have
sparked a surge of research interest in developing DL based clinical decision
support systems for diagnosis, prognosis, and treatment. Despite the
recognition of the value of deep learning in healthcare, impediments to further
adoption in real healthcare settings remain due to the black-box nature of DL.
Therefore, there is an emerging need for interpretable DL, which allows end
users to evaluate the model decision making to know whether to accept or reject
predictions and recommendations before an action is taken. In this review, we
focus on the interpretability of the DL models in healthcare. We start by
introducing the methods for interpretability in depth and comprehensively as a
methodological reference for future researchers or clinical practitioners in
this field. Besides the methods' details, we also include a discussion of
advantages and disadvantages of these methods and which scenarios each of them
is suitable for, so that interested readers can know how to compare and choose
among them for use. Moreover, we discuss how these methods, originally
developed for solving general-domain problems, have been adapted and applied to
healthcare problems and how they can help physicians better understand these
data-driven technologies. Overall, we hope this survey can help researchers and
practitioners in both artificial intelligence (AI) and clinical fields
understand what methods we have for enhancing the interpretability of their DL
models and choose the optimal one accordingly.
- Abstract(参考訳): 電子健康記録(ehr)データの大量収集とディープラーニング(dl)における前例のない技術的進歩は、診断、予後、治療のためのdlベースの臨床判断支援システムの開発に対する研究関心の高まりをもたらした。
医療における深層学習の価値は認識されているものの、実際の医療環境におけるさらなる導入を妨げる障害は、DLのブラックボックスの性質のため残っている。
そのため、解釈可能なDLの必要性が高まっており、エンドユーザーがモデル決定を評価し、アクションを行う前に予測やレコメンデーションを受理するか拒否するかを知ることができる。
本稿では,医療におけるDLモデルの解釈可能性に注目した。
本研究は,今後の研究者や臨床医の方法論として,深部・包括的に解釈可能性の手法を導入することから始める。
提案手法の詳細の他に,これらの手法の利点と欠点,および各手法がどのシナリオに適しているかについての議論も行っており,興味のある読者がそれらをどのように比較・選択するかを知ることができる。
さらに, 一般ドメイン問題を解くために開発されたこれらの手法が, 医療問題にどのように適応・適用され, 医師がこれらのデータ駆動技術を理解するのにどのように役立つかについて議論した。
全体として、この調査は、人工知能(AI)と臨床分野の両方の研究者や実践者が、DLモデルの解釈可能性を高めるための方法を理解し、それに応じて最適なものを選択するのに役立つことを願っている。
関連論文リスト
- Navigating Distribution Shifts in Medical Image Analysis: A Survey [23.012651270865707]
本稿では,分散シフトの影響を受け,深層学習手法をMedIAシステムに適用するアプローチを体系的にレビューする。
既存の作業は、共同トレーニング、フェデレートラーニング、ファインチューニング、ドメインジェネリゼーションに分類する。
これらのトピックを深く掘り下げることで、今後の研究の道筋が浮かび上がる。
論文 参考訳(メタデータ) (2024-11-05T08:01:16Z) - Exploring LLM-based Data Annotation Strategies for Medical Dialogue Preference Alignment [22.983780823136925]
本研究は、医療対話モデルを改善するために、AIフィードバック(RLAIF)技術を用いた強化学習(Reinforcement Learning)について検討する。
医療におけるRLAIF研究の主な課題は、自動評価手法の限界である。
標準化された患者診査に基づく新しい評価枠組みを提案する。
論文 参考訳(メタデータ) (2024-10-05T10:29:19Z) - A Survey of Models for Cognitive Diagnosis: New Developments and Future Directions [66.40362209055023]
本研究の目的は,認知診断の現在のモデルについて,機械学習を用いた新たな展開に注目した調査を行うことである。
モデル構造,パラメータ推定アルゴリズム,モデル評価方法,適用例を比較して,認知診断モデルの最近の傾向を概観する。
論文 参考訳(メタデータ) (2024-07-07T18:02:00Z) - ProtoAL: Interpretable Deep Active Learning with prototypes for medical imaging [0.6292138336765966]
本稿では,解釈可能なDLモデルをDeep Active Learningフレームワークに統合するProtoAL手法を提案する。
我々は,Messidorデータセット上でProtoALを評価し,精度-リコール曲線0.79の領域を実現するとともに,利用可能なラベル付きデータの76.54%しか利用していない。
論文 参考訳(メタデータ) (2024-04-06T21:39:49Z) - Validating polyp and instrument segmentation methods in colonoscopy through Medico 2020 and MedAI 2021 Challenges [58.32937972322058]
メディコオートマチックポリープセグメンテーション(Medico 2020)と「メディコ:医療画像の透明性(MedAI 2021)」コンペティション。
本報告では, それぞれのコントリビューションを包括的に分析し, ベストパフォーマンスメソッドの強さを強調し, クリニックへの臨床翻訳の可能性について考察する。
論文 参考訳(メタデータ) (2023-07-30T16:08:45Z) - Beyond Known Reality: Exploiting Counterfactual Explanations for Medical
Research [1.6574413179773761]
本研究は, 医療研究における「もし」シナリオの適用可能性を探るために, 反事実的説明を用いている。
本研究の目的は, 小児後頭葉腫瘍の診断に使用されるMRI像の理解を深めることである。
論文 参考訳(メタデータ) (2023-07-05T09:14:09Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - Semi-Supervised Variational Reasoning for Medical Dialogue Generation [70.838542865384]
医療対話生成には,患者の状態と医師の行動の2つの重要な特徴がある。
医療対話生成のためのエンドツーエンドの変分推論手法を提案する。
行動分類器と2つの推論検出器から構成される医師政策ネットワークは、拡張推論能力のために提案される。
論文 参考訳(メタデータ) (2021-05-13T04:14:35Z) - Achievements and Challenges in Explaining Deep Learning based
Computer-Aided Diagnosis Systems [4.9449660544238085]
我々は、既知の疾患基準の検証のための説明可能なAIの開発における初期の成果について論じる。
我々は、臨床意思決定支援ツールとしてのAIの実践的応用の道に立つ、残る課題をいくつか強調する。
論文 参考訳(メタデータ) (2020-11-26T08:08:19Z) - Explaining Clinical Decision Support Systems in Medical Imaging using
Cycle-Consistent Activation Maximization [112.2628296775395]
ディープニューラルネットワークを用いた臨床意思決定支援は、着実に関心が高まりつつあるトピックとなっている。
臨床医は、その根底にある意思決定プロセスが不透明で理解しにくいため、この技術の採用をためらうことが多い。
そこで我々は,より小さなデータセットであっても,分類器決定の高品質な可視化を生成するCycleGANアクティベーションに基づく,新たな意思決定手法を提案する。
論文 参考訳(メタデータ) (2020-10-09T14:39:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。