論文の概要: Diagnosis of Paratuberculosis in Histopathological Images Based on
Explainable Artificial Intelligence and Deep Learning
- arxiv url: http://arxiv.org/abs/2208.01674v1
- Date: Tue, 2 Aug 2022 18:05:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-04 13:20:40.955688
- Title: Diagnosis of Paratuberculosis in Histopathological Images Based on
Explainable Artificial Intelligence and Deep Learning
- Title(参考訳): 説明可能な人工知能と深層学習に基づく病理組織像におけるパラツバーキュラ症の診断
- Authors: Tuncay Yi\u{g}it, Nilg\"un \c{S}eng\"oz, \"Ozlem \"Ozmen, Jude
Hemanth, Ali Hakan I\c{s}{\i}k
- Abstract要約: 本研究では,Deep Learningアルゴリズムを用いて新しいオリジナルデータセットを探索し,勾配重み付きクラスアクティベーションマッピング(Grad-CAM)を用いて出力を可視化する。
意思決定プロセスと説明文の両方を検証し,出力の精度を検証した。
この研究結果は、病理学者が傍結核の診断に大いに役立っている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence holds great promise in medical imaging, especially
histopathological imaging. However, artificial intelligence algorithms cannot
fully explain the thought processes during decision-making. This situation has
brought the problem of explainability, i.e., the black box problem, of
artificial intelligence applications to the agenda: an algorithm simply
responds without stating the reasons for the given images. To overcome the
problem and improve the explainability, explainable artificial intelligence
(XAI) has come to the fore, and piqued the interest of many researchers.
Against this backdrop, this study examines a new and original dataset using the
deep learning algorithm, and visualizes the output with gradient-weighted class
activation mapping (Grad-CAM), one of the XAI applications. Afterwards, a
detailed questionnaire survey was conducted with the pathologists on these
images. Both the decision-making processes and the explanations were verified,
and the accuracy of the output was tested. The research results greatly help
pathologists in the diagnosis of paratuberculosis.
- Abstract(参考訳): 人工知能は医療画像、特に病理画像において大きな可能性を秘めている。
しかし、人工知能アルゴリズムは意思決定中に思考過程を十分に説明できない。
この状況は、人工知能の応用における説明可能性、すなわちブラックボックスの問題の問題を議題にもたらした: アルゴリズムは与えられた画像の理由を述べずに単に応答する。
この問題を克服し、説明可能性を改善するために、説明可能な人工知能(XAI)が登場し、多くの研究者の関心を喚起している。
そこで本研究では,ディープラーニングアルゴリズムを用いて新しい,オリジナルなデータセットを探索し,XAIアプリケーションの一つである勾配重み付きクラスアクティベーションマッピング(Grad-CAM)を用いて出力を可視化する。
その後,これらの画像について病理医に詳細なアンケート調査を行った。
意思決定過程と説明の両方が検証され,結果の正確性が検証された。
この研究結果は、病理学者が傍結核の診断に大いに役立っている。
関連論文リスト
- eXplainable Artificial Intelligence on Medical Images: A Survey [0.0]
機械学習分野の最近の分野は、説明可能な人工知能(XAIとも呼ばれる)であり、このようなブラックボックスモデルの結果を説明することを目的としている。
本研究は、XAI分野における最近のいくつかの研究を医療診断研究に適用し、いくつかの異なる疾患における機械学習結果の説明可能性について分析した。
論文 参考訳(メタデータ) (2023-05-12T14:25:42Z) - Pixel-Level Explanation of Multiple Instance Learning Models in
Biomedical Single Cell Images [52.527733226555206]
複数のインスタンス学習モデルを説明するための4つの属性法について検討する。
急性骨髄性白血病の2つのデータセットと100万以上の単細胞画像について検討した。
我々は、属性マップと医療専門家の注釈を比較し、モデルの意思決定が人間の基準とどのように異なるかを確認する。
論文 参考訳(メタデータ) (2023-03-15T14:00:11Z) - Analysis of Explainable Artificial Intelligence Methods on Medical Image
Classification [0.0]
画像分類などのコンピュータビジョンタスクにおけるディープラーニングの利用は、そのようなシステムの性能を急速に向上させてきた。
医用画像分類システムは、精度が高く、多くのタスクにおいてヒトの医師と同等に近いため、採用されている。
ブラックボックスモデルに関する洞察を得るために使用されている研究技術は、説明可能な人工知能(XAI)の分野にある。
論文 参考訳(メタデータ) (2022-12-10T06:17:43Z) - Towards the Use of Saliency Maps for Explaining Low-Quality
Electrocardiograms to End Users [45.62380752173638]
診断に医用画像を使用する場合,画像が高品質であることが重要である。
遠隔医療において一般的な問題は、患者が診療所を退院した後にのみ、品質問題が警告されることである。
本稿では,低品質な医用画像をリアルタイムにフラグ付け,説明するためのAIシステムの開発について報告する。
論文 参考訳(メタデータ) (2022-07-06T14:53:26Z) - Explainable Deep Learning Methods in Medical Image Classification: A
Survey [0.0]
最先端のディープラーニングモデルは、異なるタイプの医療データの分類において、人間レベルの精度を達成した。
これらのモデルは、主に解釈可能性の欠如のために、臨床ではほとんど採用されていない。
ディープラーニングモデルのブラックボックス性は、これらのモデルの意思決定プロセスを説明するための戦略を考案する必要性を高めている。
論文 参考訳(メタデータ) (2022-05-10T09:28:14Z) - Unsupervised deep learning techniques for powdery mildew recognition
based on multispectral imaging [63.62764375279861]
本稿では,キュウリ葉の粉状ミドウを自動的に認識する深層学習手法を提案する。
マルチスペクトルイメージングデータに適用した教師なし深層学習技術に焦点をあてる。
本稿では, オートエンコーダアーキテクチャを用いて, 疾患検出のための2つの手法を提案する。
論文 参考訳(メタデータ) (2021-12-20T13:29:13Z) - Machine Learning Methods for Histopathological Image Analysis: A Review [62.14548392474976]
病理組織像 (HIs) は癌診断における腫瘍の種類を評価するための金の基準である。
このような分析を高速化する方法の1つは、コンピュータ支援診断(CAD)システムを使用することである。
論文 参考訳(メタデータ) (2021-02-07T19:12:32Z) - Generative Adversarial U-Net for Domain-free Medical Image Augmentation [49.72048151146307]
注釈付き医用画像の不足は、医用画像コンピューティングの分野における最大の課題の1つだ。
本稿では,生成逆U-Netという新しい生成手法を提案する。
当社の新しいモデルは、ドメインフリーで、さまざまな医療画像に汎用性があります。
論文 参考訳(メタデータ) (2021-01-12T23:02:26Z) - Achievements and Challenges in Explaining Deep Learning based
Computer-Aided Diagnosis Systems [4.9449660544238085]
我々は、既知の疾患基準の検証のための説明可能なAIの開発における初期の成果について論じる。
我々は、臨床意思決定支援ツールとしてのAIの実践的応用の道に立つ、残る課題をいくつか強調する。
論文 参考訳(メタデータ) (2020-11-26T08:08:19Z) - Blind deblurring for microscopic pathology images using deep learning
networks [0.0]
顕微鏡画像のデフォーカスや動きのぼかしを軽減できるディープラーニングベースのアプローチを実証する。
ぼやけたタイプ、ぼやけた範囲、病理染色を事前に知ることなく、より鮮明できめ細かな画像が得られる。
そこで我々は, 画像のぼかし補正とAIアルゴリズムの診断結果の改善に優れた性能を示した。
論文 参考訳(メタデータ) (2020-11-24T03:52:45Z) - Explaining Clinical Decision Support Systems in Medical Imaging using
Cycle-Consistent Activation Maximization [112.2628296775395]
ディープニューラルネットワークを用いた臨床意思決定支援は、着実に関心が高まりつつあるトピックとなっている。
臨床医は、その根底にある意思決定プロセスが不透明で理解しにくいため、この技術の採用をためらうことが多い。
そこで我々は,より小さなデータセットであっても,分類器決定の高品質な可視化を生成するCycleGANアクティベーションに基づく,新たな意思決定手法を提案する。
論文 参考訳(メタデータ) (2020-10-09T14:39:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。