論文の概要: Diagnosis of Paratuberculosis in Histopathological Images Based on
Explainable Artificial Intelligence and Deep Learning
- arxiv url: http://arxiv.org/abs/2208.01674v1
- Date: Tue, 2 Aug 2022 18:05:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-04 13:20:40.955688
- Title: Diagnosis of Paratuberculosis in Histopathological Images Based on
Explainable Artificial Intelligence and Deep Learning
- Title(参考訳): 説明可能な人工知能と深層学習に基づく病理組織像におけるパラツバーキュラ症の診断
- Authors: Tuncay Yi\u{g}it, Nilg\"un \c{S}eng\"oz, \"Ozlem \"Ozmen, Jude
Hemanth, Ali Hakan I\c{s}{\i}k
- Abstract要約: 本研究では,Deep Learningアルゴリズムを用いて新しいオリジナルデータセットを探索し,勾配重み付きクラスアクティベーションマッピング(Grad-CAM)を用いて出力を可視化する。
意思決定プロセスと説明文の両方を検証し,出力の精度を検証した。
この研究結果は、病理学者が傍結核の診断に大いに役立っている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence holds great promise in medical imaging, especially
histopathological imaging. However, artificial intelligence algorithms cannot
fully explain the thought processes during decision-making. This situation has
brought the problem of explainability, i.e., the black box problem, of
artificial intelligence applications to the agenda: an algorithm simply
responds without stating the reasons for the given images. To overcome the
problem and improve the explainability, explainable artificial intelligence
(XAI) has come to the fore, and piqued the interest of many researchers.
Against this backdrop, this study examines a new and original dataset using the
deep learning algorithm, and visualizes the output with gradient-weighted class
activation mapping (Grad-CAM), one of the XAI applications. Afterwards, a
detailed questionnaire survey was conducted with the pathologists on these
images. Both the decision-making processes and the explanations were verified,
and the accuracy of the output was tested. The research results greatly help
pathologists in the diagnosis of paratuberculosis.
- Abstract(参考訳): 人工知能は医療画像、特に病理画像において大きな可能性を秘めている。
しかし、人工知能アルゴリズムは意思決定中に思考過程を十分に説明できない。
この状況は、人工知能の応用における説明可能性、すなわちブラックボックスの問題の問題を議題にもたらした: アルゴリズムは与えられた画像の理由を述べずに単に応答する。
この問題を克服し、説明可能性を改善するために、説明可能な人工知能(XAI)が登場し、多くの研究者の関心を喚起している。
そこで本研究では,ディープラーニングアルゴリズムを用いて新しい,オリジナルなデータセットを探索し,XAIアプリケーションの一つである勾配重み付きクラスアクティベーションマッピング(Grad-CAM)を用いて出力を可視化する。
その後,これらの画像について病理医に詳細なアンケート調査を行った。
意思決定過程と説明の両方が検証され,結果の正確性が検証された。
この研究結果は、病理学者が傍結核の診断に大いに役立っている。
関連論文リスト
- Adversarial Neural Networks in Medical Imaging Advancements and Challenges in Semantic Segmentation [6.88255677115486]
人工知能(AI)の最近の進歩は、医療画像のパラダイムシフトを引き起こしている。
本稿では,脳画像のセマンティックセグメンテーションへの深層学習(AIの主分野)の統合を体系的に検討する。
敵対的ニューラルネットワークは、自動化するだけでなく、セマンティックセグメンテーションプロセスを洗練する、新しいAIアプローチである。
論文 参考訳(メタデータ) (2024-10-17T00:05:05Z) - A Survey of Artificial Intelligence in Gait-Based Neurodegenerative Disease Diagnosis [51.07114445705692]
神経変性疾患(神経変性疾患、ND)は、伝統的に医学的診断とモニタリングのために広範囲の医療資源と人的努力を必要とする。
重要な疾患関連運動症状として、ヒトの歩行を利用して異なるNDを特徴づけることができる。
人工知能(AI)モデルの現在の進歩は、NDの識別と分類のための自動歩行分析を可能にする。
論文 参考訳(メタデータ) (2024-05-21T06:44:40Z) - Gradient based Feature Attribution in Explainable AI: A Technical Review [13.848675695545909]
ブラックボックスAIモデルの急増は、内部メカニズムを説明し、信頼性を正当化する必要性を喚起している。
勾配に基づく説明は、ニューラルネットワークモデルに直接適用することができる。
アルゴリズムの性能を測定するために,人的評価と定量的評価の両方を導入する。
論文 参考訳(メタデータ) (2024-03-15T15:49:31Z) - The Brain Tumor Segmentation (BraTS) Challenge: Local Synthesis of Healthy Brain Tissue via Inpainting [50.01582455004711]
脳腫瘍患者の場合、画像取得の時系列は通常、すでに病理的なスキャンから始まる。
多くのアルゴリズムは、健康な脳を分析し、病変を特徴とする画像の保証を提供しないように設計されている。
例えば、脳解剖学のパーセレーション、組織セグメンテーション、脳抽出のアルゴリズムがある。
そこで参加者は、損傷した脳から健康な脳スキャンを合成するための塗装技術を探る。
論文 参考訳(メタデータ) (2023-05-15T20:17:03Z) - eXplainable Artificial Intelligence on Medical Images: A Survey [0.0]
機械学習分野の最近の分野は、説明可能な人工知能(XAIとも呼ばれる)であり、このようなブラックボックスモデルの結果を説明することを目的としている。
本研究は、XAI分野における最近のいくつかの研究を医療診断研究に適用し、いくつかの異なる疾患における機械学習結果の説明可能性について分析した。
論文 参考訳(メタデータ) (2023-05-12T14:25:42Z) - Analysis of Explainable Artificial Intelligence Methods on Medical Image
Classification [0.0]
画像分類などのコンピュータビジョンタスクにおけるディープラーニングの利用は、そのようなシステムの性能を急速に向上させてきた。
医用画像分類システムは、精度が高く、多くのタスクにおいてヒトの医師と同等に近いため、採用されている。
ブラックボックスモデルに関する洞察を得るために使用されている研究技術は、説明可能な人工知能(XAI)の分野にある。
論文 参考訳(メタデータ) (2022-12-10T06:17:43Z) - Explainable Deep Learning Methods in Medical Image Classification: A
Survey [0.0]
最先端のディープラーニングモデルは、異なるタイプの医療データの分類において、人間レベルの精度を達成した。
これらのモデルは、主に解釈可能性の欠如のために、臨床ではほとんど採用されていない。
ディープラーニングモデルのブラックボックス性は、これらのモデルの意思決定プロセスを説明するための戦略を考案する必要性を高めている。
論文 参考訳(メタデータ) (2022-05-10T09:28:14Z) - Unsupervised deep learning techniques for powdery mildew recognition
based on multispectral imaging [63.62764375279861]
本稿では,キュウリ葉の粉状ミドウを自動的に認識する深層学習手法を提案する。
マルチスペクトルイメージングデータに適用した教師なし深層学習技術に焦点をあてる。
本稿では, オートエンコーダアーキテクチャを用いて, 疾患検出のための2つの手法を提案する。
論文 参考訳(メタデータ) (2021-12-20T13:29:13Z) - Machine Learning Methods for Histopathological Image Analysis: A Review [62.14548392474976]
病理組織像 (HIs) は癌診断における腫瘍の種類を評価するための金の基準である。
このような分析を高速化する方法の1つは、コンピュータ支援診断(CAD)システムを使用することである。
論文 参考訳(メタデータ) (2021-02-07T19:12:32Z) - Generative Adversarial U-Net for Domain-free Medical Image Augmentation [49.72048151146307]
注釈付き医用画像の不足は、医用画像コンピューティングの分野における最大の課題の1つだ。
本稿では,生成逆U-Netという新しい生成手法を提案する。
当社の新しいモデルは、ドメインフリーで、さまざまな医療画像に汎用性があります。
論文 参考訳(メタデータ) (2021-01-12T23:02:26Z) - Explaining Clinical Decision Support Systems in Medical Imaging using
Cycle-Consistent Activation Maximization [112.2628296775395]
ディープニューラルネットワークを用いた臨床意思決定支援は、着実に関心が高まりつつあるトピックとなっている。
臨床医は、その根底にある意思決定プロセスが不透明で理解しにくいため、この技術の採用をためらうことが多い。
そこで我々は,より小さなデータセットであっても,分類器決定の高品質な可視化を生成するCycleGANアクティベーションに基づく,新たな意思決定手法を提案する。
論文 参考訳(メタデータ) (2020-10-09T14:39:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。