論文の概要: DermX: an end-to-end framework for explainable automated dermatological
diagnosis
- arxiv url: http://arxiv.org/abs/2202.06956v1
- Date: Mon, 14 Feb 2022 14:47:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-16 14:20:49.149420
- Title: DermX: an end-to-end framework for explainable automated dermatological
diagnosis
- Title(参考訳): DermX:説明可能な自動皮膚科診断のためのエンドツーエンドフレームワーク
- Authors: Raluca Jalaboi, Frederik Faye, Mauricio Orbes-Arteaga, Dan
J{\o}rgensen, Ole Winther, Alfiia Galimzianova
- Abstract要約: 本稿ではDermXとDermX+について紹介する。
どちらもDermX、DermX+、皮膚科医のF1スコアは0.79、0.79、0.87である。
これらの結果は,我々の高性能モデルが診断に妥当かつ忠実な説明を提供するため,必ずしも予測力の犠牲になるとは限らないことを示唆している。
- 参考スコア(独自算出の注目度): 6.659842804849166
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Dermatological diagnosis automation is essential in addressing the high
prevalence of skin diseases and critical shortage of dermatologists. Despite
approaching expert-level diagnosis performance, convolutional neural network
(ConvNet) adoption in clinical practice is impeded by their limited
explainability, and by subjective, expensive explainability validations. We
introduce DermX and DermX+, an end-to-end framework for explainable automated
dermatological diagnosis. DermX is a clinically-inspired explainable
dermatological diagnosis ConvNet, trained using DermXDB, a 554 images dataset
annotated by eight dermatologists with diagnoses and supporting explanations.
DermX+ extends DermX with guided attention training for explanation attention
maps. Both methods achieve near-expert diagnosis performance, with DermX,
DermX+, and dermatologist F1 scores of 0.79, 0.79, and 0.87, respectively. We
assess the explanation plausibility in terms of identification and
localization, by comparing model-selected with dermatologist-selected
explanations, and gradient-weighted class-activation maps with dermatologist
explanation maps. Both DermX and DermX+ obtain an identification F1 score of
0.78. The localization F1 score is 0.39 for DermX and 0.35 for DermX+.
Explanation faithfulness is assessed through contrasting samples, DermX
obtaining 0.53 faithfulness and DermX+ 0.25. These results show that
explainability does not necessarily come at the expense of predictive power, as
our high-performance models provide both plausible and faithful explanations
for their diagnoses.
- Abstract(参考訳): 皮膚科診断の自動化は皮膚疾患の高頻度と皮膚科医の致命的な不足に対処するために不可欠である。
専門家レベルの診断性能に近づいているにもかかわらず、臨床実践における畳み込みニューラルネットワーク(ConvNet)の採用は、その限定的な説明可能性、そして主観的で高価な説明可能性検証によって妨げられている。
本稿ではDermXとDermX+について紹介する。
DermXは、臨床にインスパイアされた説明可能な皮膚科診断であるConvNetで、DermXDBを用いて訓練されている。
DermX+はDermXを拡張し、説明注意マップのガイド付き注意訓練を行う。
どちらもDermX、DermX+、皮膚科医のF1スコアは0.79、0.79、0.87である。
皮膚科医が選択した説明とモデル選択した説明と、勾配強調クラス活性化マップと、皮膚科医の説明マップを比較して、同定と局所性の観点から説明可能性を評価する。
DermXとDermX+はともに識別F1スコア0.78を得る。
ローカライゼーションF1スコアはDermXが0.39、DermX+が0.35である。
比較サンプル、dermx による 0.53 忠実性および dermx+ 0.25 による説明忠実性の評価を行う。
これらの結果は,我々の高性能モデルが診断に妥当かつ忠実な説明を提供するため,必ずしも予測力の犠牲になるとは限らないことを示唆している。
関連論文リスト
- Brain Tumor Classification on MRI in Light of Molecular Markers [61.77272414423481]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - SkinGEN: an Explainable Dermatology Diagnosis-to-Generation Framework with Interactive Vision-Language Models [52.90397538472582]
SkinGENは、VLMが提供する診断結果から参照デモを生成する、診断から生成までのフレームワークである。
システム性能と説明可能性の両方を評価するために,32人の参加者によるユーザスタディを実施している。
その結果、SkinGENはVLM予測に対するユーザの理解を著しく改善し、診断プロセスへの信頼を高めることが示されている。
論文 参考訳(メタデータ) (2024-04-23T05:36:33Z) - Improving Acne Image Grading with Label Distribution Smoothing [55.987107678168535]
難病の重症度評価には、典型的には病変数と世界的評価が含まれる。
画像グレーディングの有効な枠組みとしてラベル分布学習 (LDL) が提案されたが, その有効性は, 病変数を異なる重度尺度に割り当てる重度尺度によって阻害されている。
そこで本研究では,LCLとラベルスムースメントを組み合わせることで,重症度尺度情報を病変カウントに組み入れ,グローバルアセスメントから切り離すことを提案する。
論文 参考訳(メタデータ) (2024-03-01T04:02:48Z) - Multi-task Explainable Skin Lesion Classification [54.76511683427566]
少ないラベル付きデータでよく一般化する皮膚病変に対する数発のショットベースアプローチを提案する。
提案手法は,アテンションモジュールや分類ネットワークとして機能するセグメンテーションネットワークの融合を含む。
論文 参考訳(メタデータ) (2023-10-11T05:49:47Z) - How Does Pruning Impact Long-Tailed Multi-Label Medical Image
Classifiers? [49.35105290167996]
プルーニングは、ディープニューラルネットワークを圧縮し、全体的なパフォーマンスに大きな影響を及ぼすことなく、メモリ使用量と推論時間を短縮する強力なテクニックとして登場した。
この研究は、プルーニングがモデル行動に与える影響を理解するための第一歩である。
論文 参考訳(メタデータ) (2023-08-17T20:40:30Z) - A Web-based Mpox Skin Lesion Detection System Using State-of-the-art
Deep Learning Models Considering Racial Diversity [1.846958522363092]
以前は「モンキーポックス」と呼ばれていた「ムポックス」は、公衆衛生上重要な問題となり、世界中で110か国以上に広まっている。
ポリメラーゼ連鎖反応(PCR)に基づく診断がすぐには利用できない場合に、コンピュータ支援スクリーニングツールが有用であることが証明されている。
深層学習法は複雑なデータ表現を学習する上で強力であるが、その有効性は主に適切なトレーニングデータに依存している。
論文 参考訳(メタデータ) (2023-06-25T08:23:44Z) - Dermatological Diagnosis Explainability Benchmark for Convolutional
Neural Networks [8.772468575761366]
畳み込みニューラルネットワーク(ConvNets)は、医療画像において最も一般的な(DL)手法である。
ConvNetの決定メカニズムに関する洞察を得るための一般的な方法は、勾配クラス活性化マップ(Grad-CAM)である。
我々は,このタスクに最もよく使用されるConvNetアーキテクチャを特定し,それらのGrad-CAM説明とDermXDBが提供する説明マップを比較した。
論文 参考訳(メタデータ) (2023-02-23T15:16:40Z) - Learning to diagnose cirrhosis from radiological and histological labels
with joint self and weakly-supervised pretraining strategies [62.840338941861134]
そこで本稿では, 放射線学者が注釈付けした大規模データセットからの転写学習を活用して, 小さい付加データセットで利用できる組織学的スコアを予測することを提案する。
我々は,肝硬変の予測を改善するために,異なる事前訓練法,すなわち弱い指導法と自己指導法を比較した。
この方法は、METAVIRスコアのベースライン分類を上回り、AUCが0.84、バランスの取れた精度が0.75に達する。
論文 参考訳(メタデータ) (2023-02-16T17:06:23Z) - An interpretable imbalanced semi-supervised deep learning framework for improving differential diagnosis of skin diseases [8.120827875780382]
本稿では,多種性インテリジェント皮膚診断フレームワーク(ISDL)の解釈可能性と非バランス半教師あり学習に関する最初の研究について述べる。
ISDLは0.979の精度,0.975の感度,0.973の特異度,0.974のマクロF1スコア,およびマルチラベル皮膚疾患分類における0.999の受信操作特性曲線(AUC)以下の領域を有望な性能で達成した。
論文 参考訳(メタデータ) (2022-11-20T03:33:33Z) - Learning Differential Diagnosis of Skin Conditions with Co-occurrence
Supervision using Graph Convolutional Networks [8.39397743703592]
臨床画像を用いた皮膚疾患の鑑別診断が可能な深層学習システム(DLS)を提案する。
DLSは, 画像ラベルが不完全である場合に, 複数ラベルの分類タスクとして80以上の条件を定式化する。
本手法は臨床画像136,462枚に示され,分類精度は共起監督の利点が大きいと結論された。
論文 参考訳(メタデータ) (2020-07-13T20:13:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。