論文の概要: Enhanced SegNet with Integrated Grad-CAM for Interpretable Retinal Layer Segmentation in OCT Images
- arxiv url: http://arxiv.org/abs/2509.07795v1
- Date: Tue, 09 Sep 2025 14:31:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 14:38:27.357104
- Title: Enhanced SegNet with Integrated Grad-CAM for Interpretable Retinal Layer Segmentation in OCT Images
- Title(参考訳): OCT画像における網膜層セグメンテーションのためのGrad-CAMを用いた拡張SegNet
- Authors: S M Asiful Islam Saky, Ugyen Tshering,
- Abstract要約: そこで本研究では,SegNetによる網膜層分割の自動化と解釈のためのディープラーニングフレームワークを提案する。
改良されたプール戦略を含むアーキテクチャ上の革新は、ノイズの多いOCT画像からの特徴抽出を強化する。
Grad-CAMの可視化では、解剖学的に関連のある領域が強調され、セグメンテーションと臨床バイオマーカーが一致した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optical Coherence Tomography (OCT) is essential for diagnosing conditions such as glaucoma, diabetic retinopathy, and age-related macular degeneration. Accurate retinal layer segmentation enables quantitative biomarkers critical for clinical decision-making, but manual segmentation is time-consuming and variable, while conventional deep learning models often lack interpretability. This work proposes an improved SegNet-based deep learning framework for automated and interpretable retinal layer segmentation. Architectural innovations, including modified pooling strategies, enhance feature extraction from noisy OCT images, while a hybrid loss function combining categorical cross-entropy and Dice loss improves performance for thin and imbalanced retinal layers. Gradient-weighted Class Activation Mapping (Grad-CAM) is integrated to provide visual explanations, allowing clinical validation of model decisions. Trained and validated on the Duke OCT dataset, the framework achieved 95.77% validation accuracy, a Dice coefficient of 0.9446, and a Jaccard Index (IoU) of 0.8951. Class-wise results confirmed robust performance across most layers, with challenges remaining for thinner boundaries. Grad-CAM visualizations highlighted anatomically relevant regions, aligning segmentation with clinical biomarkers and improving transparency. By combining architectural improvements, a customized hybrid loss, and explainable AI, this study delivers a high-performing SegNet-based framework that bridges the gap between accuracy and interpretability. The approach offers strong potential for standardizing OCT analysis, enhancing diagnostic efficiency, and fostering clinical trust in AI-driven ophthalmic tools.
- Abstract(参考訳): 光コヒーレンス・トモグラフィ(OCT)は緑内障、糖尿病網膜症、加齢に伴う黄斑変性などの病態の診断に必須である。
正確な網膜層セグメンテーションは、臨床的な意思決定に重要な量的バイオマーカーを可能にするが、手動セグメンテーションは時間と可変であり、従来のディープラーニングモデルは解釈可能性に欠けることが多い。
この研究は、自動化および解釈可能な網膜層セグメンテーションのための改良されたSegNetベースのディープラーニングフレームワークを提案する。
改良されたプール戦略を含むアーキテクチャ上の革新は、ノイズの多いOCT画像からの特徴抽出を強化し、カテゴリ横断エントロピーとDice損失を組み合わせたハイブリッド損失関数は、薄く不均衡な網膜層の性能を向上させる。
勾配重み付きクラス活性化マッピング(Grad-CAM)は視覚的説明を提供するために統合されており、モデル決定の臨床的検証を可能にする。
Duke OCTデータセットでトレーニングと検証が行われ、95.77%の検証精度、Dice係数0.9446、Jaccard Index(IoU)0.8951を達成した。
クラスワイドの結果、ほとんどの層で堅牢なパフォーマンスが確認された。
Grad-CAMの可視化では、解剖学的に関連のある領域が強調され、セグメンテーションと臨床バイオマーカーが一致し、透明性が向上した。
アーキテクチャの改善、カスタマイズされたハイブリッド損失、説明可能なAIを組み合わせることで、この研究は精度と解釈可能性のギャップを埋める高いパフォーマンスのSegNetベースのフレームワークを提供する。
このアプローチは、OCT分析の標準化、診断効率の向上、AI駆動眼科ツールにおける臨床信頼の促進に強力な可能性を提供する。
関連論文リスト
- A Semantically Enhanced Generative Foundation Model Improves Pathological Image Synthesis [82.01597026329158]
本稿では,組織合成のための相関調整フレームワーク(CRAFTS)について紹介する。
CRAFTSは、生物学的精度を確保するためにセマンティックドリフトを抑制する新しいアライメント機構を組み込んでいる。
本モデルは,30種類の癌にまたがる多彩な病理像を生成する。
論文 参考訳(メタデータ) (2025-12-15T10:22:43Z) - Robust Multi-Disease Retinal Classification via Xception-Based Transfer Learning and W-Net Vessel Segmentation [0.0]
本稿では,眼疾患の自動診断のためのディープラーニングアーキテクチャに関する総合的研究について述べる。
深い特徴抽出と解釈可能な画像処理モジュールを組み合わせたパイプラインを実装した。
臨床形態学的特徴のモデル予測を基礎として,アルゴリズム出力と専門的医学的検証のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2025-12-11T13:03:03Z) - XOCT: Enhancing OCT to OCTA Translation via Cross-Dimensional Supervised Multi-Scale Feature Learning [10.638764687563555]
X OCTは、クロス次元スーパービジョン(CDS)とマルチスケール・フィーチャーフュージョン(MSFF)ネットワークを統合して血管再建を行う新しいディープラーニングフレームワークである。
OCTA-500データセットを用いた実験では,X OCTの改良が特に表面投影に有効であることが示されている。
論文 参考訳(メタデータ) (2025-09-09T07:25:36Z) - Topology-Constrained Learning for Efficient Laparoscopic Liver Landmark Detection [46.2391319253146]
肝のランドマークは腹腔鏡下肝手術中に外科医に重要な解剖学的ガイダンスを提供する。
TopoNetは腹腔鏡下肝ランドマーク検出のための新しいトポロジ制約学習フレームワークである。
我々のフレームワークは、スネーク・CNNデュアルパス・エンコーダを用いて、詳細なRGBテクスチャ情報と深さインフォームドトポロジ構造を同時に取得する。
論文 参考訳(メタデータ) (2025-07-01T07:35:36Z) - Towards Accurate and Interpretable Neuroblastoma Diagnosis via Contrastive Multi-scale Pathological Image Analysis [16.268045905735818]
病理画像分類に適したコントラスト学習に基づくマルチスケール機能融合モデルであるCMSwinKANを提案する。
マルチスケールの特徴を融合させ、対照的な学習戦略を活用することで、CMSwinKANは臨床医の包括的なアプローチを模倣する。
その結果、CMSwinKANは、既存の最先端の病理モデルよりも、大規模なデータセットで事前訓練されたモデルよりもパフォーマンスがよいことが示された。
論文 参考訳(メタデータ) (2025-04-18T15:39:46Z) - KaLDeX: Kalman Filter based Linear Deformable Cross Attention for Retina Vessel Segmentation [46.57880203321858]
カルマンフィルタを用いた線形変形型クロスアテンション(LDCA)モジュールを用いた血管セグメンテーションのための新しいネットワーク(KaLDeX)を提案する。
我々のアプローチは、カルマンフィルタ(KF)ベースの線形変形可能な畳み込み(LD)とクロスアテンション(CA)モジュールの2つの重要なコンポーネントに基づいている。
提案手法は,網膜基底画像データセット(DRIVE,CHASE_BD1,STARE)とOCTA-500データセットの3mm,6mmを用いて評価した。
論文 参考訳(メタデータ) (2024-10-28T16:00:42Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - RetiFluidNet: A Self-Adaptive and Multi-Attention Deep Convolutional
Network for Retinal OCT Fluid Segmentation [3.57686754209902]
OCTガイド下治療には網膜液の定量化が必要である。
RetiFluidNetと呼ばれる新しい畳み込みニューラルアーキテクチャは、多クラス網膜流体セグメンテーションのために提案されている。
モデルは、テクスチャ、コンテキスト、エッジといった特徴の階層的な表現学習の恩恵を受ける。
論文 参考訳(メタデータ) (2022-09-26T07:18:00Z) - HistoPerm: A Permutation-Based View Generation Approach for Improving
Histopathologic Feature Representation Learning [33.1098457952173]
HistoPermは共同埋め込みアーキテクチャを用いた表現学習のためのビュー生成手法である。
HistoPermは、全スライディングのヒストロジー画像から抽出したパッチの増分ビューを置換し、分類性能を向上させる。
以上の結果から,HistoPermは,精度,F1スコア,AUCの点で,パッチレベルとスライドレベルの分類性能を一貫して向上させることがわかった。
論文 参考訳(メタデータ) (2022-09-13T17:35:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。