論文の概要: Analysis of Explainable Artificial Intelligence Methods on Medical Image
Classification
- arxiv url: http://arxiv.org/abs/2212.10565v1
- Date: Sat, 10 Dec 2022 06:17:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 03:12:32.352339
- Title: Analysis of Explainable Artificial Intelligence Methods on Medical Image
Classification
- Title(参考訳): 医用画像分類における説明可能な人工知能手法の解析
- Authors: Vinay Jogani, Joy Purohit, Ishaan Shivhare and Seema C Shrawne
- Abstract要約: 画像分類などのコンピュータビジョンタスクにおけるディープラーニングの利用は、そのようなシステムの性能を急速に向上させてきた。
医用画像分類システムは、精度が高く、多くのタスクにおいてヒトの医師と同等に近いため、採用されている。
ブラックボックスモデルに関する洞察を得るために使用されている研究技術は、説明可能な人工知能(XAI)の分野にある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The use of deep learning in computer vision tasks such as image
classification has led to a rapid increase in the performance of such systems.
Due to this substantial increment in the utility of these systems, the use of
artificial intelligence in many critical tasks has exploded. In the medical
domain, medical image classification systems are being adopted due to their
high accuracy and near parity with human physicians in many tasks. However,
these artificial intelligence systems are extremely complex and are considered
black boxes by scientists, due to the difficulty in interpreting what exactly
led to the predictions made by these models. When these systems are being used
to assist high-stakes decision-making, it is extremely important to be able to
understand, verify and justify the conclusions reached by the model. The
research techniques being used to gain insight into the black-box models are in
the field of explainable artificial intelligence (XAI). In this paper, we
evaluated three different XAI methods across two convolutional neural network
models trained to classify lung cancer from histopathological images. We
visualized the outputs and analyzed the performance of these methods, in order
to better understand how to apply explainable artificial intelligence in the
medical domain.
- Abstract(参考訳): 画像分類などのコンピュータビジョンタスクにおけるディープラーニングの利用により,そのようなシステムの性能は急速に向上した。
このようなシステムの有用性の増大により、多くの重要なタスクにおける人工知能の使用が爆発的に増加した。
医療領域では、高い精度と人間の医師とほぼ同等であることから、多くの課題において医用画像分類システムが採用されている。
しかし、これらの人工知能システムは極めて複雑であり、これらのモデルによる予測を正確に解釈するのは難しいため、科学者によってブラックボックスと見なされている。
これらのシステムが高い意思決定を支援するために使用されている場合、モデルが到達した結論を理解し、検証し、正当化することが極めて重要である。
ブラックボックスモデルに関する洞察を得るために使用されている研究技術は、説明可能な人工知能(XAI)の分野にある。
本稿では,病理組織像から肺癌の分類を訓練した2つの畳み込みニューラルネットワークモデルを用いた3種類のXAI法の評価を行った。
医療領域における説明可能な人工知能の応用方法の理解を深めるため,出力を可視化し,これらの手法の性能解析を行った。
関連論文リスト
- Automated Retinal Image Analysis and Medical Report Generation through Deep Learning [3.4447129363520337]
網膜疾患の増加は、医療システムにとって大きな課題となっている。
網膜画像から医療報告を生成する従来の方法は、手動による解釈に依存している。
この論文は、網膜画像の医療レポート生成を自動化する人工知能の可能性について考察する。
論文 参考訳(メタデータ) (2024-08-14T07:47:25Z) - Brain-Inspired Machine Intelligence: A Survey of
Neurobiologically-Plausible Credit Assignment [65.268245109828]
本稿では,神経生物学にインスパイアされた,あるいは動機付けられた人工ニューラルネットワークにおける信用割当を行うアルゴリズムについて検討する。
我々は、脳にインスパイアされた学習スキームを6つの一般的なファミリーにまとめ、これらを誤りのバックプロパゲーションの文脈で検討する。
本研究の成果は,神経ミメティックシステムとその構成的学習プロセスの今後の発展を促進することを目的としている。
論文 参考訳(メタデータ) (2023-12-01T05:20:57Z) - Brain-Inspired Computational Intelligence via Predictive Coding [89.6335791546526]
予測符号化(PC)は、マシンインテリジェンスタスクにおいて有望なパフォーマンスを示している。
PCは様々な脳領域で情報処理をモデル化することができ、認知制御やロボティクスで使用することができる。
論文 参考訳(メタデータ) (2023-08-15T16:37:16Z) - Robotic Navigation Autonomy for Subretinal Injection via Intelligent
Real-Time Virtual iOCT Volume Slicing [88.99939660183881]
網膜下注射のための自律型ロボットナビゲーションの枠組みを提案する。
提案手法は,機器のポーズ推定方法,ロボットとi OCTシステム間のオンライン登録,およびインジェクションターゲットへのナビゲーションに適した軌道計画から構成される。
ブタ前眼の精度と再現性について実験を行った。
論文 参考訳(メタデータ) (2023-01-17T21:41:21Z) - Explainable AI for Bioinformatics: Methods, Tools, and Applications [1.6855835471222005]
説明可能な人工知能(XAI)は、ブラックボックスモデルの不透明さを軽減することを目的とした新興分野である。
本稿では,バイオインフォマティクスに着目した説明可能性の重要性について論じる。
論文 参考訳(メタデータ) (2022-12-25T21:00:36Z) - An Interactive Interpretability System for Breast Cancer Screening with
Deep Learning [11.28741778902131]
乳がん検診の放射線科医を支援するために,最先端の解釈可能性技術を活用するインタラクティブシステムを提案する。
本システムは, 深層学習モデルを放射線学者のワークフローに統合し, モデル決定プロセスの理解を促進するために, 新たなインタラクションを提供する。
論文 参考訳(メタデータ) (2022-09-30T02:19:49Z) - Diagnosis of Paratuberculosis in Histopathological Images Based on
Explainable Artificial Intelligence and Deep Learning [0.0]
本研究では,Deep Learningアルゴリズムを用いて新しいオリジナルデータセットを探索し,勾配重み付きクラスアクティベーションマッピング(Grad-CAM)を用いて出力を可視化する。
意思決定プロセスと説明文の両方を検証し,出力の精度を検証した。
この研究結果は、病理学者が傍結核の診断に大いに役立っている。
論文 参考訳(メタデータ) (2022-08-02T18:05:26Z) - Ultrasound Signal Processing: From Models to Deep Learning [64.56774869055826]
医用超音波画像は、信頼性と解釈可能な画像再構成を提供するために、高品質な信号処理に大きく依存している。
データ駆動方式で最適化されたディープラーニングベースの手法が人気を集めている。
比較的新しいパラダイムは、データ駆動型ディープラーニングの活用とドメイン知識の活用という2つのパワーを組み合わせたものだ。
論文 参考訳(メタデータ) (2022-04-09T13:04:36Z) - Unbox the Black-box for the Medical Explainable AI via Multi-modal and
Multi-centre Data Fusion: A Mini-Review, Two Showcases and Beyond [3.4031539425106683]
説明可能な人工知能(XAI)は、AIシステムのブラックボックスの選択方法のアンボックスを目的とした、機械学習の新たな研究トピックである。
機械学習アルゴリズムの多くは、意思決定の方法と理由を明らかにしない。
XAIは、ディープラーニングを利用したアプリケーション、特に医学や医療研究において、ますます重要になっている。
論文 参考訳(メタデータ) (2021-02-03T10:56:58Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Learning Binary Semantic Embedding for Histology Image Classification
and Retrieval [56.34863511025423]
バイナリ・セマンティック・エンベディング(LBSE)の学習方法を提案する。
効率的な埋め込み、分類、検索を行い、組織像の解釈可能なコンピュータ支援診断を提供する。
3つのベンチマークデータセットで実施された実験は、様々なシナリオにおいてLBSEの優位性を検証する。
論文 参考訳(メタデータ) (2020-10-07T08:36:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。