論文の概要: Survey of XAI in digital pathology
- arxiv url: http://arxiv.org/abs/2008.06353v1
- Date: Fri, 14 Aug 2020 13:11:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-30 17:10:11.884307
- Title: Survey of XAI in digital pathology
- Title(参考訳): デジタル病理学におけるXAI調査
- Authors: Milda Pocevi\v{c}i\=ut\.e and Gabriel Eilertsen and Claes Lundstr\"om
- Abstract要約: 本稿では,デジタル病理学におけるXAIについて,特定の特徴とニーズを持つ医用画像のサブディシプリタであるXAIについて紹介する。
病理画像診断における深層学習手法に関する現在のXAI技術の概要について概説する。
そこで我々は,XAIランドスケープの不可欠な部分として不確実性推定手法を取り入れた。
- 参考スコア(独自算出の注目度): 3.4591414173342643
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial intelligence (AI) has shown great promise for diagnostic imaging
assessments. However, the application of AI to support medical diagnostics in
clinical routine comes with many challenges. The algorithms should have high
prediction accuracy but also be transparent, understandable and reliable. Thus,
explainable artificial intelligence (XAI) is highly relevant for this domain.
We present a survey on XAI within digital pathology, a medical imaging
sub-discipline with particular characteristics and needs. The review includes
several contributions. Firstly, we give a thorough overview of current XAI
techniques of potential relevance for deep learning methods in pathology
imaging, and categorise them from three different aspects. In doing so, we
incorporate uncertainty estimation methods as an integral part of the XAI
landscape. We also connect the technical methods to the specific prerequisites
in digital pathology and present findings to guide future research efforts. The
survey is intended for both technical researchers and medical professionals,
one of the objectives being to establish a common ground for cross-disciplinary
discussions.
- Abstract(参考訳): 人工知能(AI)は、診断画像アセスメントに非常に有望である。
しかし、臨床ルーチンにおける医療診断支援のためのAIの適用には、多くの課題が伴う。
アルゴリズムは高い予測精度を持つが、透明で理解しやすく信頼性も高い。
したがって、この領域には説明可能な人工知能(XAI)が深く関係している。
本稿では,デジタル病理学におけるXAIについて,特定の特徴とニーズを持つ医用画像のサブディシプリネであるXAIについて紹介する。
レビューにはいくつかのコントリビューションが含まれている。
まず,病理画像学における深層学習手法に関する現在のXAI技術の概要を概説し,これらを3つの異なる側面から分類する。
そこで我々は,XAIランドスケープの不可欠な部分として不確実性推定手法を取り入れた。
また,デジタル病理学における特定の前提条件と技術手法を結びつけ,今後の研究の方向性を示す。
この調査は、技術研究者と医療専門家の両方を対象としており、分野横断的な議論の共通基盤を確立することを目的としている。
関連論文リスト
- An Explainable AI Framework for Artificial Intelligence of Medical
Things [2.7774194651211217]
我々はカスタムXAIフレームワークを活用し、LIME(Local Interpretable Model-Agnostic Explanations)、SHAP(SHapley Additive ExPlanations)、Grad-Cam(Grad-weighted Class Activation Mapping)といったテクニックを取り入れた。
提案手法は, 戦略的医療手法の有効性を高め, 信頼度を高め, 医療応用の理解を促進することを目的としている。
我々はXAIフレームワークを脳腫瘍検出に応用し,正確かつ透明な診断方法を示した。
論文 参考訳(メタデータ) (2024-03-07T01:08:41Z) - An objective validation of polyp and instrument segmentation methods in
colonoscopy through Medico 2020 polyp segmentation and MedAI 2021
transparency challenges [58.402720481042365]
メディコオートマチックポリープセグメンテーション(Medico 2020)と「メディコ:医療画像の透明性(MedAI 2021)」コンペティション。
本報告では, それぞれのコントリビューションを包括的に分析し, ベストパフォーマンスメソッドの強さを強調し, クリニックへの臨床翻訳の可能性について考察する。
論文 参考訳(メタデータ) (2023-07-30T16:08:45Z) - A Brief Review of Explainable Artificial Intelligence in Healthcare [7.844015105790313]
XAIは、AIアプリケーションを構築するための技術と方法を指す。
モデル説明可能性と解釈可能性は、医療実践におけるAIモデルのデプロイを成功させる上で不可欠である。
論文 参考訳(メタデータ) (2023-04-04T05:41:57Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - Explainable AI for clinical and remote health applications: a survey on
tabular and time series data [3.655021726150368]
XAIは、特に医療において、さまざまな研究領域やデータタイプに同じ関心を集めていない点に注意が必要だ。
本稿は,過去5年間の文献を概観し,生成した説明のタイプと,それらの関連性や品質を評価するための取り組みについて述べる。
論文 参考訳(メタデータ) (2022-09-14T10:01:29Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - Explainable Deep Learning Methods in Medical Image Classification: A
Survey [0.0]
最先端のディープラーニングモデルは、異なるタイプの医療データの分類において、人間レベルの精度を達成した。
これらのモデルは、主に解釈可能性の欠如のために、臨床ではほとんど採用されていない。
ディープラーニングモデルのブラックボックス性は、これらのモデルの意思決定プロセスを説明するための戦略を考案する必要性を高めている。
論文 参考訳(メタデータ) (2022-05-10T09:28:14Z) - Explainable artificial intelligence (XAI) in deep learning-based medical
image analysis [3.255042271092803]
深層学習に基づく医用画像解析手法を分類するために,XAI基準の枠組みを導入する。
医用画像解析におけるXAI技術に関する論文は、その枠組みや解剖学的位置に応じて調査され分類される。
医療画像解析におけるXAIの今後の可能性について考察した。
論文 参考訳(メタデータ) (2021-07-22T20:16:34Z) - Machine Learning Methods for Histopathological Image Analysis: A Review [62.14548392474976]
病理組織像 (HIs) は癌診断における腫瘍の種類を評価するための金の基準である。
このような分析を高速化する方法の1つは、コンピュータ支援診断(CAD)システムを使用することである。
論文 参考訳(メタデータ) (2021-02-07T19:12:32Z) - Learning Binary Semantic Embedding for Histology Image Classification
and Retrieval [56.34863511025423]
バイナリ・セマンティック・エンベディング(LBSE)の学習方法を提案する。
効率的な埋め込み、分類、検索を行い、組織像の解釈可能なコンピュータ支援診断を提供する。
3つのベンチマークデータセットで実施された実験は、様々なシナリオにおいてLBSEの優位性を検証する。
論文 参考訳(メタデータ) (2020-10-07T08:36:44Z) - Review of Artificial Intelligence Techniques in Imaging Data
Acquisition, Segmentation and Diagnosis for COVID-19 [71.41929762209328]
新型コロナウイルス感染症(COVID-19)のパンデミックは世界中に広がっている。
X線やCT(Computerd Tomography)などの医用画像は、世界的な新型コロナウイルス対策に欠かせない役割を担っている。
最近登場した人工知能(AI)技術は、画像ツールの力を強化し、医療専門家を支援する。
論文 参考訳(メタデータ) (2020-04-06T15:21:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。