論文の概要: An Explainable AI Framework for Artificial Intelligence of Medical
Things
- arxiv url: http://arxiv.org/abs/2403.04130v1
- Date: Thu, 7 Mar 2024 01:08:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-08 15:33:05.716029
- Title: An Explainable AI Framework for Artificial Intelligence of Medical
Things
- Title(参考訳): 医療物の人工知能のための説明可能なAIフレームワーク
- Authors: Al Amin, Kamrul Hasan, Saleh Zein-Sabatto, Deo Chimba, Imtiaz Ahmed,
and Tariqul Islam
- Abstract要約: 我々はカスタムXAIフレームワークを活用し、LIME(Local Interpretable Model-Agnostic Explanations)、SHAP(SHapley Additive ExPlanations)、Grad-Cam(Grad-weighted Class Activation Mapping)といったテクニックを取り入れた。
提案手法は, 戦略的医療手法の有効性を高め, 信頼度を高め, 医療応用の理解を促進することを目的としている。
我々はXAIフレームワークを脳腫瘍検出に応用し,正確かつ透明な診断方法を示した。
- 参考スコア(独自算出の注目度): 2.7774194651211217
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The healthcare industry has been revolutionized by the convergence of
Artificial Intelligence of Medical Things (AIoMT), allowing advanced
data-driven solutions to improve healthcare systems. With the increasing
complexity of Artificial Intelligence (AI) models, the need for Explainable
Artificial Intelligence (XAI) techniques become paramount, particularly in the
medical domain, where transparent and interpretable decision-making becomes
crucial. Therefore, in this work, we leverage a custom XAI framework,
incorporating techniques such as Local Interpretable Model-Agnostic
Explanations (LIME), SHapley Additive exPlanations (SHAP), and
Gradient-weighted Class Activation Mapping (Grad-Cam), explicitly designed for
the domain of AIoMT. The proposed framework enhances the effectiveness of
strategic healthcare methods and aims to instill trust and promote
understanding in AI-driven medical applications. Moreover, we utilize a
majority voting technique that aggregates predictions from multiple
convolutional neural networks (CNNs) and leverages their collective
intelligence to make robust and accurate decisions in the healthcare system.
Building upon this decision-making process, we apply the XAI framework to brain
tumor detection as a use case demonstrating accurate and transparent diagnosis.
Evaluation results underscore the exceptional performance of the XAI framework,
achieving high precision, recall, and F1 scores with a training accuracy of 99%
and a validation accuracy of 98%. Combining advanced XAI techniques with
ensemble-based deep-learning (DL) methodologies allows for precise and reliable
brain tumor diagnoses as an application of AIoMT.
- Abstract(参考訳): 医療産業はAIoMT(Artificial Intelligence of Medical Things)の合併によって革新され、高度なデータ駆動型ソリューションによって医療システムが改善されている。
人工知能(ai)モデルの複雑さが増す中、説明可能な人工知能(xai)技術の必要性は、特に透明で解釈可能な意思決定が重要となる医療領域において、最も重要視されている。
そこで本研究では,AIoMTのドメイン用に明示的に設計された,ローカル解釈型モデル非依存記述(LIME)やSHAP(SHAP),Gradient-weighted Class Activation Mapping(Grad-Cam)といったテクニックを取り入れた,独自のXAIフレームワークを活用する。
提案手法は, 戦略的医療手法の有効性を高め, 信頼度を高め, 医療応用の理解を促進することを目的としている。
さらに,複数の畳み込みニューラルネットワーク(cnns)からの予測を集約し,その集団的知性を活用して,医療システムにおいて堅牢かつ正確な意思決定を行う,多数決手法を活用する。
この意思決定プロセスに基づいて、xaiフレームワークを脳腫瘍検出に適用し、正確かつ透明な診断を示すユースケースとした。
評価結果は,XAIフレームワークの優れた性能を示し,高い精度,リコール,F1スコアをトレーニング精度99%,検証精度98%で達成した。
高度なXAI技術とアンサンブルベースのディープラーニング(DL)手法を組み合わせることで、AIoMTの適用として正確で信頼性の高い脳腫瘍の診断が可能になる。
関連論文リスト
- Explainable artificial intelligence for Healthcare applications using
Random Forest Classifier with LIME and SHAP [0.0]
ブラックボックスAI技術に隠された計算の詳細を理解する必要がある。
説明可能なAI(xAI)の起源は、これらの課題から生まれる。
この本は、いくつかのxAIフレームワークとメソッドの詳細な分析を提供する。
論文 参考訳(メタデータ) (2023-11-09T11:43:10Z) - UniBrain: Universal Brain MRI Diagnosis with Hierarchical
Knowledge-enhanced Pre-training [66.16134293168535]
我々はUniBrainと呼ばれるユニバーサル脳MRI診断のための階層的知識強化事前訓練フレームワークを提案する。
具体的には、UniBrainは、定期的な診断から24,770のイメージレポートペアの大規模なデータセットを活用する。
論文 参考訳(メタデータ) (2023-09-13T09:22:49Z) - XAI Renaissance: Redefining Interpretability in Medical Diagnostic
Models [0.0]
XAIルネッサンスは、医療診断モデルの解釈可能性を再定義することを目的としている。
XAI技術は、医療専門家にこれらのモデルを正確で信頼性の高い診断に理解し、信頼し、効果的に活用することを可能にする。
論文 参考訳(メタデータ) (2023-06-02T16:42:20Z) - A Brief Review of Explainable Artificial Intelligence in Healthcare [7.844015105790313]
XAIは、AIアプリケーションを構築するための技術と方法を指す。
モデル説明可能性と解釈可能性は、医療実践におけるAIモデルのデプロイを成功させる上で不可欠である。
論文 参考訳(メタデータ) (2023-04-04T05:41:57Z) - Dermatologist-like explainable AI enhances trust and confidence in
diagnosing melanoma [0.0]
人工知能システムがメラノーマを識別する方法における透明性の欠如は、ユーザーの受け入れに深刻な障害をもたらす。
ほとんどのXAI法は、正確に位置付けられたドメイン固有の説明を生成できないため、説明の解釈が困難である。
我々は、皮膚科医が容易に解釈できるテキストと地域に基づく説明を生成するXAIシステムを開発した。
論文 参考訳(メタデータ) (2023-03-17T17:25:55Z) - Towards Trust of Explainable AI in Thyroid Nodule Diagnosis [0.0]
我々は,甲状腺結節診断アプリケーションにおけるブラックボックスAIモデルの予測を説明するために,最先端のeXplainable AI(XAI)手法を適用した。
我々は,検出された結節が存在しない場合を説明するために,新しい統計ベースのXAI手法,すなわちカーネル密度推定と密度マップを提案する。
論文 参考訳(メタデータ) (2023-03-08T17:18:13Z) - Robotic Navigation Autonomy for Subretinal Injection via Intelligent
Real-Time Virtual iOCT Volume Slicing [88.99939660183881]
網膜下注射のための自律型ロボットナビゲーションの枠組みを提案する。
提案手法は,機器のポーズ推定方法,ロボットとi OCTシステム間のオンライン登録,およびインジェクションターゲットへのナビゲーションに適した軌道計画から構成される。
ブタ前眼の精度と再現性について実験を行った。
論文 参考訳(メタデータ) (2023-01-17T21:41:21Z) - AutoPrognosis 2.0: Democratizing Diagnostic and Prognostic Modeling in
Healthcare with Automated Machine Learning [72.2614468437919]
本稿では,診断・予後モデルを開発するための機械学習フレームワークAutoPrognosis 2.0を提案する。
我々は,英国バイオバンクを用いた糖尿病の予後リスクスコアを構築するための図解的アプリケーションを提供する。
我々のリスクスコアはWebベースの意思決定支援ツールとして実装されており、世界中の患者や臨床医がアクセスできる。
論文 参考訳(メタデータ) (2022-10-21T16:31:46Z) - Robust and Efficient Medical Imaging with Self-Supervision [80.62711706785834]
医用画像AIの堅牢性とデータ効率を向上させるための統一表現学習戦略であるREMEDISを提案する。
様々な医療画像タスクを研究し, 振り返りデータを用いて3つの現実的な応用シナリオをシミュレートする。
論文 参考訳(メタデータ) (2022-05-19T17:34:18Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - The Medkit-Learn(ing) Environment: Medical Decision Modelling through
Simulation [81.72197368690031]
医用シーケンシャルな意思決定に特化して設計された新しいベンチマークスイートを提案する。
Medkit-Learn(ing) Environmentは、高忠実度合成医療データに簡単かつ簡単にアクセスできるPythonパッケージである。
論文 参考訳(メタデータ) (2021-06-08T10:38:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。