論文の概要: Explainable AI in Diagnosing and Anticipating Leukemia Using Transfer
Learning Method
- arxiv url: http://arxiv.org/abs/2312.00487v1
- Date: Fri, 1 Dec 2023 10:37:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-04 14:53:38.403822
- Title: Explainable AI in Diagnosing and Anticipating Leukemia Using Transfer
Learning Method
- Title(参考訳): 転写学習法を用いた白血病の診断・予測における説明可能なAI
- Authors: Wahidul Hasan Abir, Md. Fahim Uddin, Faria Rahman Khanam and Mohammad
Monirujjaman Khan
- Abstract要約: 本研究は,小児および10代に流行する急性リンパ芽球性白血病(ALL)に焦点をあてる。
ディープラーニング技術を活用したコンピュータ支援診断(CAD)モデルを用いた自動検出手法を提案する。
提案手法は98.38%の精度を達成し、他の試験モデルよりも優れていた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This research paper focuses on Acute Lymphoblastic Leukemia (ALL), a form of
blood cancer prevalent in children and teenagers, characterized by the rapid
proliferation of immature white blood cells (WBCs). These atypical cells can
overwhelm healthy cells, leading to severe health consequences. Early and
accurate detection of ALL is vital for effective treatment and improving
survival rates. Traditional diagnostic methods are time-consuming, costly, and
prone to errors. The paper proposes an automated detection approach using
computer-aided diagnostic (CAD) models, leveraging deep learning techniques to
enhance the accuracy and efficiency of leukemia diagnosis. The study utilizes
various transfer learning models like ResNet101V2, VGG19, InceptionV3, and
InceptionResNetV2 for classifying ALL. The methodology includes using the Local
Interpretable Model-Agnostic Explanations (LIME) for ensuring the validity and
reliability of the AI system's predictions. This approach is critical for
overcoming the "black box" nature of AI, where decisions made by models are
often opaque and unaccountable. The paper highlights that the proposed method
using the InceptionV3 model achieved an impressive 98.38% accuracy,
outperforming other tested models. The results, verified by the LIME algorithm,
showcase the potential of this method in accurately identifying ALL, providing
a valuable tool for medical practitioners. The research underscores the impact
of explainable artificial intelligence (XAI) in medical diagnostics, paving the
way for more transparent and trustworthy AI applications in healthcare.
- Abstract(参考訳): 本研究は,小児および10代で流行する急性リンパ芽球性白血病(ALL)に焦点を当て,未熟な白血球(WBC)の急激な増殖を特徴とする。
これらの非定型細胞は健康な細胞を圧倒し、深刻な健康上の結果をもたらす。
ALLの早期かつ正確な検出は、有効治療と生存率の向上に不可欠である。
従来の診断方法は時間がかかり、コストがかかり、エラーを起こしやすい。
本稿では,コンピュータ支援診断(cad)モデルを用いて,白血病診断の精度と効率を高めるために深層学習技術を活用する自動検出手法を提案する。
この研究は、ALLの分類にResNet101V2、VGG19、InceptionV3、InceptionResNetV2といった様々なトランスファー学習モデルを利用している。
この方法論には、AIシステムの予測の妥当性と信頼性を保証するために、ローカル解釈可能なモデル非依存説明(LIME)の使用が含まれる。
このアプローチは、モデルによる決定が不透明で非可算であることが多い、AIの“ブラックボックス”の性質を克服するために重要である。
論文は、InceptionV3モデルを用いた提案手法が98.38%の精度を達成し、他の試験モデルよりも優れていることを強調した。
LIMEアルゴリズムによって検証されたこの結果は、ALを正確に識別するこの手法の可能性を示し、医療従事者にとって貴重なツールを提供する。
この研究は、医療診断における説明可能な人工知能(XAI)の影響を強調し、医療におけるより透明で信頼できるAI応用への道を開いた。
関連論文リスト
- Explainable Diagnosis Prediction through Neuro-Symbolic Integration [11.842565087408449]
我々は、診断予測のための説明可能なモデルを開発するために、神経象徴的手法、特に論理ニューラルネットワーク(LNN)を用いている。
私たちのモデル、特に$M_textmulti-pathway$と$M_textcomprehensive$は、従来のモデルよりも優れたパフォーマンスを示します。
これらの知見は、医療AI応用における精度と説明可能性のギャップを埋める神経象徴的アプローチの可能性を強調している。
論文 参考訳(メタデータ) (2024-10-01T22:47:24Z) - A study on deep feature extraction to detect and classify Acute Lymphoblastic Leukemia (ALL) [0.0]
急性リンパ芽球性白血病(ALL)は、主に成人と小児に影響を及ぼす血液悪性腫瘍である。
本研究では、深い学習、特に畳み込みニューラルネットワーク(CNN)を用いて、ALLの検出と分類を行う。
87%の精度で、ResNet101モデルは最高の結果をもたらし、その後にDenseNet121とVGG19が続いた。
論文 参考訳(メタデータ) (2024-09-10T17:53:29Z) - Analysis of Modern Computer Vision Models for Blood Cell Classification [49.1574468325115]
この研究では、MaxVit、EfficientVit、EfficientNet、EfficientNetV2、MobileNetV3といった最先端アーキテクチャを使用して、迅速かつ正確な結果を得る。
本手法は,従来の手法の速度と精度の懸念に対処するだけでなく,血液学的解析における革新的な深層学習モデルの適用性についても検討する。
論文 参考訳(メタデータ) (2024-06-30T16:49:29Z) - Breast Cancer Diagnosis: A Comprehensive Exploration of Explainable Artificial Intelligence (XAI) Techniques [38.321248253111776]
乳がんの診断・診断における説明可能な人工知能(XAI)技術の適用について検討する。
複雑なAIモデルと実用的な医療アプリケーションの間のギャップを埋めることにおけるXAIの可能性を強調することを目的としている。
論文 参考訳(メタデータ) (2024-06-01T18:50:03Z) - Neural Cellular Automata for Lightweight, Robust and Explainable Classification of White Blood Cell Images [40.347953893940044]
ニューラルセルオートマトン(NCA)を用いた白血球分類の新しいアプローチを提案する。
NCAに基づく手法はパラメータの面で著しく小さく,ドメインシフトに対する堅牢性を示す。
その結果,NAAは画像分類に利用でき,従来の手法の課題に対処できることがわかった。
論文 参考訳(メタデータ) (2024-04-08T14:59:53Z) - An Interpretable Deep Learning Approach for Skin Cancer Categorization [0.0]
我々は、皮膚がん検出の問題に対処するために、現代のディープラーニング手法と説明可能な人工知能(XAI)アプローチを使用する。
皮膚病変の分類には,XceptionNet,EfficientNetV2S,InceptionResNetV2,EfficientNetV2Mの4つの最先端事前訓練モデルを用いる。
我々の研究は、ディープラーニングと説明可能な人工知能(XAI)が皮膚がんの診断をどのように改善するかを示している。
論文 参考訳(メタデータ) (2023-12-17T12:11:38Z) - The Limits of Fair Medical Imaging AI In The Wild [43.97266228706059]
医療用AIが人口統計エンコーディングをどのように利用するかを検討する。
医療画像AIは、疾患分類において、人口動態のショートカットを利用することを確認した。
人口統計属性のエンコーディングが少ないモデルは、しばしば「グローバルに最適」であることがわかった。
論文 参考訳(メタデータ) (2023-12-11T18:59:50Z) - GENIE-NF-AI: Identifying Neurofibromatosis Tumors using Liquid Neural
Network (LTC) trained on AACR GENIE Datasets [0.0]
神経線維腫症を診断するための解釈可能なAIアプローチを提案する。
提案手法は99.86%の精度で既存モデルより優れていた。
論文 参考訳(メタデータ) (2023-04-26T10:28:59Z) - Detecting Shortcut Learning for Fair Medical AI using Shortcut Testing [62.9062883851246]
機械学習は医療の改善に大いに貢献するが、その利用が健康格差を広めたり増幅したりしないことを確実にすることは重要である。
アルゴリズムの不公平性の潜在的な要因の1つ、ショートカット学習は、トレーニングデータにおける不適切な相関に基づいてMLモデルが予測した時に発生する。
マルチタスク学習を用いて,臨床MLシステムの公平性評価の一環として,ショートカット学習の評価と緩和を行う手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T09:35:38Z) - SSD-KD: A Self-supervised Diverse Knowledge Distillation Method for
Lightweight Skin Lesion Classification Using Dermoscopic Images [62.60956024215873]
皮膚がんは最も一般的な悪性腫瘍の1つであり、人口に影響を与え、世界中で経済的な重荷を負っている。
皮膚がん検出のほとんどの研究は、ポータブルデバイス上での計算資源の制限を考慮せずに、高い予測精度を追求している。
本研究は,皮膚疾患分類のための汎用的なKDフレームワークに多様な知識を統一する,SSD-KDと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-03-22T06:54:29Z) - Demystifying Deep Learning Models for Retinal OCT Disease Classification
using Explainable AI [0.6117371161379209]
様々な深層学習技術の採用は、非常に一般的かつ効果的であり、網膜光コヒーレンス・トモグラフィー分野に実装する上でも同様に真実である。
これらの技術はブラックボックスの特徴を持ち、医療従事者がそれらの成果を完全に信頼できないようにする。
本稿では,この研究に説明可能なAIを導入したLimeの使用とともに,比較的小型で簡易な自己開発CNNモデルを提案する。
論文 参考訳(メタデータ) (2021-11-06T13:54:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。