論文の概要: Towards a Transparent and Interpretable AI Model for Medical Image Classifications
- arxiv url: http://arxiv.org/abs/2509.16685v1
- Date: Sat, 20 Sep 2025 13:26:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:15.926025
- Title: Towards a Transparent and Interpretable AI Model for Medical Image Classifications
- Title(参考訳): 医用画像分類のための透明かつ解釈可能なAIモデルを目指して
- Authors: Binbin Wen, Yihang Wu, Tareef Daqqaq, Ahmad Chaddad,
- Abstract要約: 本稿では,説明可能な人工知能(XAI)手法の適用について検討する。
本研究は,XAIモデルの内部動作を解明するために,様々な医療データセットを用いたシミュレーションの実装に焦点をあてる。
主要なXAI手法とシミュレーションのサーベイに加えて、XAI分野における現在進行中の課題についても論じる。
- 参考スコア(独自算出の注目度): 5.574793555270349
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The integration of artificial intelligence (AI) into medicine is remarkable, offering advanced diagnostic and therapeutic possibilities. However, the inherent opacity of complex AI models presents significant challenges to their clinical practicality. This paper focuses primarily on investigating the application of explainable artificial intelligence (XAI) methods, with the aim of making AI decisions transparent and interpretable. Our research focuses on implementing simulations using various medical datasets to elucidate the internal workings of the XAI model. These dataset-driven simulations demonstrate how XAI effectively interprets AI predictions, thus improving the decision-making process for healthcare professionals. In addition to a survey of the main XAI methods and simulations, ongoing challenges in the XAI field are discussed. The study highlights the need for the continuous development and exploration of XAI, particularly from the perspective of diverse medical datasets, to promote its adoption and effectiveness in the healthcare domain.
- Abstract(参考訳): 人工知能(AI)の医学への統合は目覚ましいもので、高度な診断と治療の可能性を提供する。
しかし、複雑なAIモデルの本質的な不透明さは、その臨床実践に重大な課題をもたらす。
本稿では,AI決定を透明かつ解釈可能なものにすることを目的として,説明可能な人工知能(XAI)手法の適用について検討する。
本研究は,XAIモデルの内部動作を解明するために,様々な医療データセットを用いたシミュレーションの実装に焦点をあてる。
これらのデータセット駆動シミュレーションは、XAIがAI予測を効果的に解釈する方法を示し、医療専門家の意思決定プロセスを改善する。
主要なXAI手法とシミュレーションのサーベイに加えて、XAI分野における現在進行中の課題についても論じる。
この研究は、医療領域におけるXAIの採用と有効性を促進するために、特に多様な医療データセットの観点から、XAIの継続的な開発と探索の必要性を強調している。
関連論文リスト
- Towards Next-Generation Medical Agent: How o1 is Reshaping Decision-Making in Medical Scenarios [46.729092855387165]
本稿では,医療用AIエージェントのバックボーンLSMの選択について検討する。
我々の研究結果は、o1の診断精度と一貫性を高める能力を示し、よりスマートでより応答性の高いAIツールへの道を開いた。
論文 参考訳(メタデータ) (2024-11-16T18:19:53Z) - A Survey of Artificial Intelligence in Gait-Based Neurodegenerative Disease Diagnosis [51.07114445705692]
神経変性疾患(神経変性疾患、ND)は、伝統的に医学的診断とモニタリングのために広範囲の医療資源と人的努力を必要とする。
重要な疾患関連運動症状として、ヒトの歩行を利用して異なるNDを特徴づけることができる。
人工知能(AI)モデルの現在の進歩は、NDの識別と分類のための自動歩行分析を可能にする。
論文 参考訳(メタデータ) (2024-05-21T06:44:40Z) - Enhancing Breast Cancer Diagnosis in Mammography: Evaluation and Integration of Convolutional Neural Networks and Explainable AI [0.0]
本研究では,畳み込みニューラルネットワーク(CNN)と説明可能な人工知能(XAI)を組み合わせて乳がんの診断を高度化するための統合フレームワークを提案する。
この方法論は、データセットの制限に対処するために、精巧なデータ前処理パイプラインと高度なデータ拡張技術を含んでいる。
本研究の焦点は,モデル予測の解釈におけるXAIの有効性を評価することである。
論文 参考訳(メタデータ) (2024-04-05T05:00:21Z) - An Explainable AI Framework for Artificial Intelligence of Medical
Things [2.7774194651211217]
我々はカスタムXAIフレームワークを活用し、LIME(Local Interpretable Model-Agnostic Explanations)、SHAP(SHapley Additive ExPlanations)、Grad-Cam(Grad-weighted Class Activation Mapping)といったテクニックを取り入れた。
提案手法は, 戦略的医療手法の有効性を高め, 信頼度を高め, 医療応用の理解を促進することを目的としている。
我々はXAIフレームワークを脳腫瘍検出に応用し,正確かつ透明な診断方法を示した。
論文 参考訳(メタデータ) (2024-03-07T01:08:41Z) - A Brief Review of Explainable Artificial Intelligence in Healthcare [7.844015105790313]
XAIは、AIアプリケーションを構築するための技術と方法を指す。
モデル説明可能性と解釈可能性は、医療実践におけるAIモデルのデプロイを成功させる上で不可欠である。
論文 参考訳(メタデータ) (2023-04-04T05:41:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。