論文の概要: Hybrid Approach for Enhancing Lesion Segmentation in Fundus Images
- arxiv url: http://arxiv.org/abs/2509.25549v1
- Date: Mon, 29 Sep 2025 22:10:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.348559
- Title: Hybrid Approach for Enhancing Lesion Segmentation in Fundus Images
- Title(参考訳): 基底画像における病変分割の促進のためのハイブリッドアプローチ
- Authors: Mohammadmahdi Eshragh, Emad A. Mohammed, Behrouz Far, Ezekiel Weis, Carol L Shields, Sandor R Ferenczy, Trafford Crump,
- Abstract要約: 脈絡膜壊死は良性色素性眼の病変であり、メラノーマに転移するリスクは少ない。
早期発見は生存率を改善するために重要であるが、誤診や診断の遅れは予後不良につながる可能性がある。
本稿では,数理/クラスタリングセグメンテーションモデルとU-Netの知見を組み合わせた新しいアプローチを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Choroidal nevi are common benign pigmented lesions in the eye, with a small risk of transforming into melanoma. Early detection is critical to improving survival rates, but misdiagnosis or delayed diagnosis can lead to poor outcomes. Despite advancements in AI-based image analysis, diagnosing choroidal nevi in colour fundus images remains challenging, particularly for clinicians without specialized expertise. Existing datasets often suffer from low resolution and inconsistent labelling, limiting the effectiveness of segmentation models. This paper addresses the challenge of achieving precise segmentation of fundus lesions, a critical step toward developing robust diagnostic tools. While deep learning models like U-Net have demonstrated effectiveness, their accuracy heavily depends on the quality and quantity of annotated data. Previous mathematical/clustering segmentation methods, though accurate, required extensive human input, making them impractical for medical applications. This paper proposes a novel approach that combines mathematical/clustering segmentation models with insights from U-Net, leveraging the strengths of both methods. This hybrid model improves accuracy, reduces the need for large-scale training data, and achieves significant performance gains on high-resolution fundus images. The proposed model achieves a Dice coefficient of 89.7% and an IoU of 80.01% on 1024*1024 fundus images, outperforming the Attention U-Net model, which achieved 51.3% and 34.2%, respectively. It also demonstrated better generalizability on external datasets. This work forms a part of a broader effort to develop a decision support system for choroidal nevus diagnosis, with potential applications in automated lesion annotation to enhance the speed and accuracy of diagnosis and monitoring.
- Abstract(参考訳): 脈絡膜壊死は、眼の良性色素性病変であり、メラノーマに変形するリスクは少ない。
早期発見は生存率を改善するために重要であるが、誤診や診断の遅れは予後不良につながる可能性がある。
AIに基づく画像解析の進歩にもかかわらず、色眼底画像における脈絡膜壊死の診断は依然として困難であり、特に専門知識を持たない臨床医にとっては困難である。
既存のデータセットは、しばしば低解像度と一貫性のないラベル付けに悩まされ、セグメンテーションモデルの有効性が制限される。
本論文は,堅牢な診断ツール開発に向けた重要なステップである,根底病変の正確なセグメンテーションを実現することの課題に対処する。
U-Netのようなディープラーニングモデルは有効性を示しているが、その正確性は注釈付きデータの質と量に大きく依存している。
以前の数学的・クラスタリングのセグメンテーション法は正確ではあるが、広範囲な人間の入力が必要であり、医学的応用には実用的ではなかった。
本稿では,U-Netからの知見と数学的・クラスター的セグメンテーションモデルを組み合わせ,両手法の強みを活かした新しいアプローチを提案する。
このハイブリッドモデルは精度を向上し、大規模なトレーニングデータの必要性を低減し、高解像度のファンドイメージにおいて大幅な性能向上を実現する。
提案モデルでは,1024*1024基画像上でDice係数89.7%,IoU80.01%を達成し,それぞれ51.3%,34.2%のアテンションU-Netモデルを上回った。
また、外部データセットの一般化性も向上した。
この研究は、脈絡膜頸部診断のための意思決定支援システムを開発するための幅広い取り組みの一部であり、診断とモニタリングのスピードと精度を高めるために、自動病変診断に潜在的に応用される可能性がある。
関連論文リスト
- SkinDualGen: Prompt-Driven Diffusion for Simultaneous Image-Mask Generation in Skin Lesions [0.0]
本稿では, トレーニング済み安定拡散2.0モデルを用いて, 高品質な合成皮膚病変画像を生成する手法を提案する。
実データと合成データを組み合わせたハイブリッドデータセットは、分類とセグメンテーションモデルの性能を著しく向上させる。
論文 参考訳(メタデータ) (2025-07-26T15:00:37Z) - Enhancing Orthopox Image Classification Using Hybrid Machine Learning and Deep Learning Models [40.325359811289445]
本稿では、機械学習モデルと事前訓練されたディープラーニングモデルを組み合わせて、拡張データを必要とせずに、深い特徴表現を抽出する。
その結果, この特徴抽出法は, 最先端技術における他の手法と組み合わせることで, 優れた分類結果が得られることがわかった。
論文 参考訳(メタデータ) (2025-06-06T11:52:07Z) - Lightweight Relational Embedding in Task-Interpolated Few-Shot Networks for Enhanced Gastrointestinal Disease Classification [0.0]
大腸癌の検出は、患者の生存率を高めるために重要である。
大腸内視鏡は、適切な高品質の内視鏡画像を取得することに依存する。
Few-Shot Learning アーキテクチャにより、我々のモデルは、目に見えないきめ細かな内視鏡画像パターンに迅速に適応できる。
精度は90.1%,精度は0.845,リコールは0.942,F1スコアは0.891であった。
論文 参考訳(メタデータ) (2025-05-30T16:54:51Z) - DCAT: Dual Cross-Attention Fusion for Disease Classification in Radiological Images with Uncertainty Estimation [0.0]
本稿では,医用画像解析のための新しい二重対向核融合モデルを提案する。
機能統合と解釈可能性における重要な課題に対処する。
提案されたモデルはAUCの99.75%、100%、99.93%、98.69%、AUPRの99.81%、100%、99.97%、96.36%をそれぞれコビッド19、結核、肺炎胸部X線画像、網膜CT画像で達成した。
論文 参考訳(メタデータ) (2025-03-14T20:28:20Z) - Efficient and Comprehensive Feature Extraction in Large Vision-Language Model for Pathology Analysis [37.11302829771659]
大規模視覚言語モデル(LVLM)は、入力解像度の制約によって制限され、病理画像解析の効率と精度を損なう。
課題誘導型機能拡張と課題誘導型詳細機能補完の2つの革新的戦略を提案する。
OmniPathは診断精度と効率において既存の方法よりも優れていた。
論文 参考訳(メタデータ) (2024-12-12T18:07:23Z) - A Two-Stage Generative Model with CycleGAN and Joint Diffusion for
MRI-based Brain Tumor Detection [41.454028276986946]
本稿では,脳腫瘍の検出とセグメンテーションを改善するための2段階生成モデル(TSGM)を提案する。
CycleGANは、未ペアデータに基づいてトレーニングされ、データとして正常な画像から異常な画像を生成する。
VE-JPは、合成対の異常画像をガイドとして使用して、健康な画像の再構成を行う。
論文 参考訳(メタデータ) (2023-11-06T12:58:26Z) - Virchow: A Million-Slide Digital Pathology Foundation Model [34.38679208931425]
本稿では,コンピュータ病理学の基礎モデルであるVirchowを紹介する。
Virchowは、150万のヘマトキシリンとエオシン染色されたスライドイメージに基づいて、632万のパラメータをトレーニングしたビジョントランスフォーマーモデルである。
論文 参考訳(メタデータ) (2023-09-14T15:09:35Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - An interpretable classifier for high-resolution breast cancer screening
images utilizing weakly supervised localization [45.00998416720726]
医用画像の特徴に対処する枠組みを提案する。
このモデルはまず、画像全体の低容量だがメモリ効率のよいネットワークを使用して、最も情報性の高い領域を識別する。
次に、選択したリージョンから詳細を収集するために、別の高容量ネットワークを適用します。
最後に、グローバルおよびローカル情報を集約して最終的な予測を行うフュージョンモジュールを使用する。
論文 参考訳(メタデータ) (2020-02-13T15:28:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。