論文の概要: Visual explanations for polyp detection: How medical doctors assess
intrinsic versus extrinsic explanations
- arxiv url: http://arxiv.org/abs/2204.00617v1
- Date: Wed, 23 Mar 2022 09:14:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-10 11:12:47.397839
- Title: Visual explanations for polyp detection: How medical doctors assess
intrinsic versus extrinsic explanations
- Title(参考訳): ポリプ検出のための視覚的説明 : 内因性・外因性説明の医学的評価
- Authors: Steven Hicks, Andrea Stor{\aa}s, Michael Riegler, Cise Midoglu, Malek
Hammou, Thomas de Lange, Sravanthi Parasa, P{\aa}l Halvorsen, Inga Str\"umke
- Abstract要約: 深層学習の現在の状況はブラックボックスであり、医療専門家はこれらの手法を臨床に取り入れることに非常に懐疑的だ。
ブラックボックスに光を当てるためにいくつかの方法が提案されているが、これらの説明を消費する医師の意見には一致していない。
本論文は,消化器疾患検出症例に適用した場合の最先端の人工知能手法について,医師に意見を述べるものである。
- 参考スコア(独自算出の注目度): 5.075555496769664
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning has in recent years achieved immense success in all areas of
computer vision and has the potential of assisting medical doctors in analyzing
visual content for disease and other abnormalities. However, the current state
of deep learning is very much a black box, making medical professionals highly
skeptical about integrating these methods into clinical practice. Several
methods have been proposed in order to shine some light onto these black boxes,
but there is no consensus on the opinion of the medical doctors that will
consume these explanations. This paper presents a study asking medical doctors
about their opinion of current state-of-the-art explainable artificial
intelligence methods when applied to a gastrointestinal disease detection use
case. We compare two different categories of explanation methods, intrinsic and
extrinsic, and gauge their opinion of the current value of these explanations.
The results indicate that intrinsic explanations are preferred and that
explanation.
- Abstract(参考訳): 近年、深層学習はコンピュータビジョンのあらゆる分野で大きな成功を収めており、疾患やその他の異常の視覚的内容を分析するために医師を支援する可能性がある。
しかし、ディープラーニングの現状は非常にブラックボックスであり、医療専門家はこれらの手法を臨床実践に統合することに非常に懐疑的である。
ブラックボックスに光を当てるためにいくつかの方法が提案されているが、これらの説明を消費する医師の意見には一致していない。
本論文は,消化器疾患検出症例に適用した場合の最先端の人工知能手法について,医師に意見を述べるものである。
本研究は,本質的と外因的という2つの異なる説明方法を比較し,これらの説明の現在の価値についての評価を行う。
その結果,本質的な説明が望ましいことが示唆された。
関連論文リスト
- Mining Gaze for Contrastive Learning toward Computer-Assisted Diagnosis [61.089776864520594]
医用画像のテキストレポートの代替としてアイトラッキングを提案する。
医用画像を読み,診断する際に放射線科医の視線を追跡することにより,その視覚的注意と臨床的理由を理解することができる。
対照的な学習フレームワークのためのプラグイン・アンド・プレイモジュールとして,McGIP (McGIP) を導入した。
論文 参考訳(メタデータ) (2023-12-11T02:27:45Z) - Beyond Known Reality: Exploiting Counterfactual Explanations for Medical
Research [1.6574413179773761]
本研究は, 医療研究における「もし」シナリオの適用可能性を探るために, 反事実的説明を用いている。
本研究の目的は, 小児後頭葉腫瘍の診断に使用されるMRI像の理解を深めることである。
論文 参考訳(メタデータ) (2023-07-05T09:14:09Z) - Survey on Adversarial Attack and Defense for Medical Image Analysis: Methods and Challenges [64.63744409431001]
医療画像解析における敵攻撃・防衛の進歩に関する総合的な調査を報告する。
公正な比較のために、逆向きに堅牢な診断モデルのための新しいベンチマークを構築した。
論文 参考訳(メタデータ) (2023-03-24T16:38:58Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - Explaining Chest X-ray Pathologies in Natural Language [46.11255491490225]
医用画像上での予測を正当化するために,自然言語説明(NLE)を生成するタスクを導入する。
NLEは人間フレンドリで包括的であり、本質的に説明可能なモデルのトレーニングを可能にする。
NLEを用いた最初の大規模医用画像データセットMIMIC-NLEを紹介する。
論文 参考訳(メタデータ) (2022-07-09T22:09:37Z) - Explainable Deep Learning Methods in Medical Image Classification: A
Survey [0.0]
最先端のディープラーニングモデルは、異なるタイプの医療データの分類において、人間レベルの精度を達成した。
これらのモデルは、主に解釈可能性の欠如のために、臨床ではほとんど採用されていない。
ディープラーニングモデルのブラックボックス性は、これらのモデルの意思決定プロセスを説明するための戦略を考案する必要性を高めている。
論文 参考訳(メタデータ) (2022-05-10T09:28:14Z) - ExAID: A Multimodal Explanation Framework for Computer-Aided Diagnosis
of Skin Lesions [4.886872847478552]
ExAID(Explainable AI for Dermatology)は、バイオメディカル画像解析のための新しいフレームワークである。
マルチモーダルな概念に基づく説明を提供する。
他の生体イメージング分野でも同様の応用の基盤となるだろう。
論文 参考訳(メタデータ) (2022-01-04T17:11:28Z) - Semi-Supervised Variational Reasoning for Medical Dialogue Generation [70.838542865384]
医療対話生成には,患者の状態と医師の行動の2つの重要な特徴がある。
医療対話生成のためのエンドツーエンドの変分推論手法を提案する。
行動分類器と2つの推論検出器から構成される医師政策ネットワークは、拡張推論能力のために提案される。
論文 参考訳(メタデータ) (2021-05-13T04:14:35Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Quantitative and Qualitative Evaluation of Explainable Deep Learning
Methods for Ophthalmic Diagnosis [0.0]
方法: Inception v3として知られる一般的なディープラーニングモデルは、3つの網膜疾患を診断するために訓練された。
13種類のアトリビューション法による説明を14名の臨床医のパネルで評価し,臨床的意義について検討した。
ディープ・テイラーは3.85/5の中央値で臨床医によって最高評価を受けた。
論文 参考訳(メタデータ) (2020-09-26T17:17:08Z) - Explainable deep learning models in medical image analysis [0.0]
様々な医学的診断に非常に効果的で、その一部で人間の専門家を圧倒している。
最近の説明可能性研究は、モデルの決定に最も影響を及ぼす特徴を示すことを目的としている。
ここでは、様々な医療画像タスクに対する説明可能な深層学習の現在の応用について概説する。
論文 参考訳(メタデータ) (2020-05-28T06:31:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。