論文の概要: Hybrid Interpretable Deep Learning Framework for Skin Cancer Diagnosis: Integrating Radial Basis Function Networks with Explainable AI
- arxiv url: http://arxiv.org/abs/2501.14885v1
- Date: Fri, 24 Jan 2025 19:19:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-28 21:57:03.40542
- Title: Hybrid Interpretable Deep Learning Framework for Skin Cancer Diagnosis: Integrating Radial Basis Function Networks with Explainable AI
- Title(参考訳): 皮膚癌診断のためのハイブリッド解釈可能な深層学習フレームワーク--放射基底関数ネットワークと説明可能なAIの統合
- Authors: Mirza Ahsan Ullah, Tehseen Zia,
- Abstract要約: 皮膚がんは世界中で最も流行し、致命的な疾患の1つである。
本稿では,畳み込みニューラルネットワーク(CNN)とラジアル基底関数(RBF)ネットワークを統合するハイブリッドディープラーニングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 1.1049608786515839
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Skin cancer is one of the most prevalent and potentially life-threatening diseases worldwide, necessitating early and accurate diagnosis to improve patient outcomes. Conventional diagnostic methods, reliant on clinical expertise and histopathological analysis, are often time-intensive, subjective, and prone to variability. To address these limitations, we propose a novel hybrid deep learning framework that integrates convolutional neural networks (CNNs) with Radial Basis Function (RBF) Networks to achieve high classification accuracy and enhanced interpretability. The motivation for incorporating RBF Networks lies in their intrinsic interpretability and localized response to input features, which make them well-suited for tasks requiring transparency and fine-grained decision-making. Unlike traditional deep learning models that rely on global feature representations, RBF Networks allow for mapping segments of images to chosen prototypes, exploiting salient features within a single image. This enables clinicians to trace predictions to specific, interpretable patterns. The framework incorporates segmentation-based feature extraction, active learning for prototype selection, and K-Medoids clustering to focus on these salient features. Evaluations on the ISIC 2016 and ISIC 2017 datasets demonstrate the model's effectiveness, achieving classification accuracies of 83.02\% and 72.15\% using ResNet50, respectively, and outperforming VGG16-based configurations. By generating interpretable explanations for predictions, the framework aligns with clinical workflows, bridging the gap between predictive performance and trustworthiness. This study highlights the potential of hybrid models to deliver actionable insights, advancing the development of reliable AI-assisted diagnostic tools for high-stakes medical applications.
- Abstract(参考訳): 皮膚がんは世界中で最も流行し、生命を脅かす可能性のある疾患の1つであり、患者の予後を改善するために早期かつ正確な診断を必要とする。
従来の診断法は、臨床専門知識と病理組織学的分析に依存しており、しばしば時間集約的で主観的であり、変動しがちである。
これらの制約に対処するために,畳み込みニューラルネットワーク(CNN)とラジアル基底関数(RBF)ネットワークを統合し,高い分類精度と高い解釈性を実現するハイブリッドディープラーニングフレームワークを提案する。
RBFネットワークを導入する動機は、固有の解釈可能性と入力機能への局所的な応答にあるため、透明性ときめ細かい意思決定を必要とするタスクに適している。
グローバルな特徴表現に依存する従来のディープラーニングモデルとは異なり、RBF Networksでは、選択したプロトタイプに画像のセグメントをマッピングすることができ、単一のイメージ内の健全な機能を利用することができる。
これにより、臨床医は特定の解釈可能なパターンに予測を追跡できる。
このフレームワークには、セグメンテーションベースの機能抽出、プロトタイプ選択のためのアクティブラーニング、これらの優れた機能にフォーカスするためにK-Medoidsクラスタリングが含まれている。
ISIC 2016とISIC 2017データセットの評価は、モデルの有効性を示し、それぞれResNet50を使用して83.02\%と72.15\%の分類精度を達成し、VGG16ベースの構成を上回っている。
予測のための解釈可能な説明を生成することで、このフレームワークは臨床ワークフローと整合し、予測性能と信頼性のギャップを埋める。
この研究は、行動可能な洞察を提供するためのハイブリッドモデルの可能性を強調し、高度な医療応用のための信頼性の高いAI支援診断ツールの開発を推進している。
関連論文リスト
- Towards Accurate and Interpretable Neuroblastoma Diagnosis via Contrastive Multi-scale Pathological Image Analysis [16.268045905735818]
CMSwinKANは、病理画像分類に適したコントラスト学習に基づくマルチスケール機能融合モデルである。
臨床所見から導かれるソフト投票機構を導入し,パッチレベルの予測をスライド画像全体の分類にシームレスにブリッジする。
その結果、CMSwinKANは、既存の最先端の病理モデルよりも、大規模なデータセットで事前訓練されたモデルよりもパフォーマンスがよいことが示された。
論文 参考訳(メタデータ) (2025-04-18T15:39:46Z) - Fine-tuning Vision Language Models with Graph-based Knowledge for Explainable Medical Image Analysis [44.38638601819933]
現在の糖尿病網膜症(DR)のステージングモデルはほとんど解釈できない。
本稿では,グラフ表現学習を視覚言語モデル(VLM)と統合し,説明可能なDR診断を実現する手法を提案する。
論文 参考訳(メタデータ) (2025-03-12T20:19:07Z) - Self-Explaining Hypergraph Neural Networks for Diagnosis Prediction [45.89562183034469]
既存のディープラーニング診断予測モデルと本質的な解釈性は、過去の診断や病院訪問の度に注意重みを割り当てることが多い。
我々は、パーソナライズされた簡潔で忠実な説明を提供するように設計された、自己説明型ハイパーグラフニューラルネットワークモデルSHyを紹介する。
SHyは高次疾患の相互作用を捉え、パーソナライズされた説明として異なる時間的表現型を抽出する。
論文 参考訳(メタデータ) (2025-02-15T06:33:02Z) - CAVE-Net: Classifying Abnormalities in Video Capsule Endoscopy [0.1937002985471497]
複雑な画像データセットを解析する際の診断精度を向上させるために,アンサンブルに基づくアプローチを提案する。
各モデルのユニークな特徴抽出機能を活用し、全体的な精度を向上させる。
これらの手法を用いることで、提案フレームワークであるCAVE-Netは、ロバストな特徴識別と、より優れた分類結果を提供する。
論文 参考訳(メタデータ) (2024-10-26T17:25:08Z) - Explainable Diagnosis Prediction through Neuro-Symbolic Integration [11.842565087408449]
我々は、診断予測のための説明可能なモデルを開発するために、神経象徴的手法、特に論理ニューラルネットワーク(LNN)を用いている。
私たちのモデル、特に$M_textmulti-pathway$と$M_textcomprehensive$は、従来のモデルよりも優れたパフォーマンスを示します。
これらの知見は、医療AI応用における精度と説明可能性のギャップを埋める神経象徴的アプローチの可能性を強調している。
論文 参考訳(メタデータ) (2024-10-01T22:47:24Z) - Analyzing the Effect of $k$-Space Features in MRI Classification Models [0.0]
医用イメージングに適した説明可能なAI手法を開発した。
我々は、画像領域と周波数領域の両方にわたるMRIスキャンを分析する畳み込みニューラルネットワーク(CNN)を採用している。
このアプローチは、初期のトレーニング効率を高めるだけでなく、追加機能がモデル予測にどのように影響するかの理解を深めます。
論文 参考訳(メタデータ) (2024-09-20T15:43:26Z) - Refining Tuberculosis Detection in CXR Imaging: Addressing Bias in Deep Neural Networks via Interpretability [1.9936075659851882]
実験データから完全な分類精度を得ることができたとしても,深層学習モデルの信頼性は限られていると論じる。
大規模プロキシタスクでディープニューラルネットワークを事前トレーニングし、MOON(Mixed objective Optimization Network)を使用することで、モデルとエキスパート間の決定基盤の整合性を改善することができることを示す。
論文 参考訳(メタデータ) (2024-07-19T06:41:31Z) - L-SFAN: Lightweight Spatially-focused Attention Network for Pain Behavior Detection [44.016805074560295]
慢性的な腰痛 (CLBP) は世界中の何百万もの患者を悩ませており、個人の健康や医療システムに対する経済的負担に大きな影響を及ぼす。
人工知能(AI)とディープラーニングは、リハビリ戦略を改善するために痛みに関連する行動を分析するための有望な道を提供するが、畳み込みニューラルネットワーク(CNN)を含む現在のモデルには限界がある。
我々は、モーションキャプチャーと表面筋電図センサからデータの空間的時間的相互作用をキャプチャする2Dフィルタを組み込んだ軽量CNNアーキテクチャであるhbox EmoL-SFANを紹介する。
論文 参考訳(メタデータ) (2024-06-07T12:01:37Z) - Learning Through Guidance: Knowledge Distillation for Endoscopic Image
Classification [40.366659911178964]
内視鏡は消化管(GI)の根底にある異常を同定する上で重要な役割を担っている。
ディープラーニング、特にCNN(Convolution Neural Networks)は、従来の機能エンジニアリングを使わずに自動機能学習を実行するように設計されている。
KDに基づく3つの学習フレームワーク、応答ベース、特徴ベース、関係ベースメカニズムについて検討し、関係ベース学習を支援するために、新しい多面的注意型特徴融合機構を導入する。
論文 参考訳(メタデータ) (2023-08-17T02:02:11Z) - Diagnose Like a Radiologist: Hybrid Neuro-Probabilistic Reasoning for
Attribute-Based Medical Image Diagnosis [42.624671531003166]
本稿では,属性に基づく医用画像診断のためのハイブリッド型ニューロ確率推論アルゴリズムを提案する。
我々は,ハイブリッド推論アルゴリズムを2つの困難な画像診断タスクに適用することに成功している。
論文 参考訳(メタデータ) (2022-08-19T12:06:46Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Domain Generalization for Medical Imaging Classification with
Linear-Dependency Regularization [59.5104563755095]
本稿では,医用画像分類分野におけるディープニューラルネットワークの一般化能力向上のための,シンプルだが効果的なアプローチを提案する。
医用画像の領域変数がある程度コンパクトであることに感銘を受けて,変分符号化による代表的特徴空間の学習を提案する。
論文 参考訳(メタデータ) (2020-09-27T12:30:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。