論文の概要: Dermatologist-like explainable AI enhances trust and confidence in
diagnosing melanoma
- arxiv url: http://arxiv.org/abs/2303.12806v1
- Date: Fri, 17 Mar 2023 17:25:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-25 02:42:09.173063
- Title: Dermatologist-like explainable AI enhances trust and confidence in
diagnosing melanoma
- Title(参考訳): 皮膚科のような説明可能なAIは悪性黒色腫の診断における信頼と信頼を高める
- Authors: Tirtha Chanda, Katja Hauser, Sarah Hobelsberger, Tabea-Clara Bucher,
Carina Nogueira Garcia, Christoph Wies, Harald Kittler, Philipp Tschandl,
Cristian Navarrete-Dechent, Sebastian Podlipnik, Emmanouil Chousakos, Iva
Crnaric, Jovana Majstorovic, Linda Alhajwan, Tanya Foreman, Sandra Peternel,
Sergei Sarap, \.Irem \"Ozdemir, Raymond L. Barnhill, Mar Llamas Velasco,
Gabriela Poch, S\"oren Korsing, Wiebke Sondermann, Frank Friedrich Gellrich,
Markus V. Heppt, Michael Erdmann, Sebastian Haferkamp, Konstantin Drexler,
Matthias Goebeler, Bastian Schilling, Jochen S. Utikal, Kamran Ghoreschi,
Stefan Fr\"ohling, Eva Krieghoff-Henning, Titus J. Brinker
- Abstract要約: 人工知能システムがメラノーマを識別する方法における透明性の欠如は、ユーザーの受け入れに深刻な障害をもたらす。
ほとんどのXAI法は、正確に位置付けられたドメイン固有の説明を生成できないため、説明の解釈が困難である。
我々は、皮膚科医が容易に解釈できるテキストと地域に基づく説明を生成するXAIシステムを開発した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Although artificial intelligence (AI) systems have been shown to improve the
accuracy of initial melanoma diagnosis, the lack of transparency in how these
systems identify melanoma poses severe obstacles to user acceptance.
Explainable artificial intelligence (XAI) methods can help to increase
transparency, but most XAI methods are unable to produce precisely located
domain-specific explanations, making the explanations difficult to interpret.
Moreover, the impact of XAI methods on dermatologists has not yet been
evaluated. Extending on two existing classifiers, we developed an XAI system
that produces text and region based explanations that are easily interpretable
by dermatologists alongside its differential diagnoses of melanomas and nevi.
To evaluate this system, we conducted a three-part reader study to assess its
impact on clinicians' diagnostic accuracy, confidence, and trust in the
XAI-support. We showed that our XAI's explanations were highly aligned with
clinicians' explanations and that both the clinicians' trust in the support
system and their confidence in their diagnoses were significantly increased
when using our XAI compared to using a conventional AI system. The clinicians'
diagnostic accuracy was numerically, albeit not significantly, increased. This
work demonstrates that clinicians are willing to adopt such an XAI system,
motivating their future use in the clinic.
- Abstract(参考訳): 人工知能(AI)システムは初期のメラノーマ診断の精度を向上させることが示されているが、メラノーマの識別方法の透明性の欠如は、ユーザの受け入れに深刻な障害をもたらす。
説明可能な人工知能(XAI)メソッドは透明性を高めるのに役立つが、ほとんどのXAIメソッドは正確に位置したドメイン固有の説明を生成できないため、説明の解釈が困難である。
また,XAI法が皮膚科医に与える影響もまだ評価されていない。
既存の2つの分類器を拡張して,皮膚科医がメラノーマとネビの鑑別診断とともに容易に解釈できるテキストと地域に基づく説明を生成するXAIシステムを開発した。
本システムを評価するために,臨床医の診断精度,信頼性,XAI支援に対する信頼度に対する影響を評価するための3部構成の読者調査を行った。
我々は,XAIの説明が臨床医の説明と高度に一致していることを示し,従来のAIシステムと比較して,臨床医の支援システムへの信頼と診断に対する信頼が著しく向上したことを示した。
診断精度は数値的に高かったが,有意差はなかった。
この研究は、臨床医がこのようなXAIシステムを採用する意思があることを示し、その将来的な利用を動機付けている。
関連論文リスト
- Dermatologist-like explainable AI enhances melanoma diagnosis accuracy: eye-tracking study [1.1876787296873537]
人工知能(AI)システムは皮膚科医のメラノーマの診断精度を大幅に改善した。
これらの進歩にもかかわらず、皮膚科医がAIとXAIの両方のツールとどのように関わるかの客観的評価には、依然として重要な必要性がある。
そこで本研究では,76名の皮膚科医を対象に,XAIシステムを用いてメラノーマとネビの16例の皮膚内視鏡像の診断を行った。
論文 参考訳(メタデータ) (2024-09-20T13:08:33Z) - Breast Cancer Diagnosis: A Comprehensive Exploration of Explainable Artificial Intelligence (XAI) Techniques [38.321248253111776]
乳がんの診断・診断における説明可能な人工知能(XAI)技術の適用について検討する。
複雑なAIモデルと実用的な医療アプリケーションの間のギャップを埋めることにおけるXAIの可能性を強調することを目的としている。
論文 参考訳(メタデータ) (2024-06-01T18:50:03Z) - The Limits of Perception: Analyzing Inconsistencies in Saliency Maps in XAI [0.0]
説明可能な人工知能(XAI)は、AIの意思決定プロセスの解明に不可欠である。
ブラックボックス」として機能し、その理由が曖昧でアクセスできないため、誤診のリスクが高まる。
この透明性へのシフトは、単に有益であるだけでなく、医療におけるAI統合の責任を負うための重要なステップでもある。
論文 参考訳(メタデータ) (2024-03-23T02:15:23Z) - How much informative is your XAI? A decision-making assessment task to
objectively measure the goodness of explanations [53.01494092422942]
XAIに対する個人化アプローチとユーザ中心アプローチの数は、近年急速に増加している。
ユーザ中心のXAIアプローチがユーザとシステム間のインタラクションに肯定的な影響を与えることが明らかとなった。
我々は,XAIシステムの良否を客観的かつ定量的に評価するための評価課題を提案する。
論文 参考訳(メタデータ) (2023-12-07T15:49:39Z) - Deciphering knee osteoarthritis diagnostic features with explainable
artificial intelligence: A systematic review [4.918419052486409]
変形性膝関節症(OA)を診断するための既存の人工知能モデルは、その透明性と解釈可能性の欠如に対して批判を浴びている。
近年,説明可能な人工知能 (XAI) がモデルの予測に自信を与える特別な技術として出現している。
本報告では膝OA診断に用いるXAI技術について紹介する。
論文 参考訳(メタデータ) (2023-08-18T08:23:47Z) - Validating polyp and instrument segmentation methods in colonoscopy through Medico 2020 and MedAI 2021 Challenges [58.32937972322058]
メディコオートマチックポリープセグメンテーション(Medico 2020)と「メディコ:医療画像の透明性(MedAI 2021)」コンペティション。
本報告では, それぞれのコントリビューションを包括的に分析し, ベストパフォーマンスメソッドの強さを強調し, クリニックへの臨床翻訳の可能性について考察する。
論文 参考訳(メタデータ) (2023-07-30T16:08:45Z) - XAI Renaissance: Redefining Interpretability in Medical Diagnostic
Models [0.0]
XAIルネッサンスは、医療診断モデルの解釈可能性を再定義することを目的としている。
XAI技術は、医療専門家にこれらのモデルを正確で信頼性の高い診断に理解し、信頼し、効果的に活用することを可能にする。
論文 参考訳(メタデータ) (2023-06-02T16:42:20Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - AutoPrognosis 2.0: Democratizing Diagnostic and Prognostic Modeling in
Healthcare with Automated Machine Learning [72.2614468437919]
本稿では,診断・予後モデルを開発するための機械学習フレームワークAutoPrognosis 2.0を提案する。
我々は,英国バイオバンクを用いた糖尿病の予後リスクスコアを構築するための図解的アプリケーションを提供する。
我々のリスクスコアはWebベースの意思決定支援ツールとして実装されており、世界中の患者や臨床医がアクセスできる。
論文 参考訳(メタデータ) (2022-10-21T16:31:46Z) - BI-RADS-Net: An Explainable Multitask Learning Approach for Cancer
Diagnosis in Breast Ultrasound Images [69.41441138140895]
本稿では,乳房超音波画像における癌検出のための新しい深層学習手法であるBI-RADS-Netを紹介する。
提案手法は, 臨床診断に関連する特徴表現を学習することにより, 乳腺腫瘍の説明と分類を行うタスクを取り入れたものである。
臨床医が医療現場で診断・報告するために使用する形態学的特徴の観点から予測(良性または悪性)の説明が提供される。
論文 参考訳(メタデータ) (2021-10-05T19:14:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。