論文の概要: TWLR: Text-Guided Weakly-Supervised Lesion Localization and Severity Regression for Explainable Diabetic Retinopathy Grading
- arxiv url: http://arxiv.org/abs/2512.13008v1
- Date: Mon, 15 Dec 2025 06:08:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.551771
- Title: TWLR: Text-Guided Weakly-Supervised Lesion Localization and Severity Regression for Explainable Diabetic Retinopathy Grading
- Title(参考訳): TWLR : 著明な糖尿病網膜症に対するテキストガイド下軽度病変局在と重症度回帰
- Authors: Xi Luo, Shixin Xu, Ying Xie, JianZhong Hu, Yuwei He, Yuhui Deng, Huaxiong Huang,
- Abstract要約: 糖尿病網膜症(DR)を診断するための2段階の枠組みであるTWLRを提案する。
第1段階では、視覚監督モデルがドメイン固有の眼科知識をテキスト埋め込みに統合し、DRグレーディングと病変分類を共同で行う。
第2段階では、弱言語セマンティックセグメンテーションに基づく反復重大度回帰フレームワークが導入されている。
- 参考スコア(独自算出の注目度): 9.839282449612513
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate medical image analysis can greatly assist clinical diagnosis, but its effectiveness relies on high-quality expert annotations Obtaining pixel-level labels for medical images, particularly fundus images, remains costly and time-consuming. Meanwhile, despite the success of deep learning in medical imaging, the lack of interpretability limits its clinical adoption. To address these challenges, we propose TWLR, a two-stage framework for interpretable diabetic retinopathy (DR) assessment. In the first stage, a vision-language model integrates domain-specific ophthalmological knowledge into text embeddings to jointly perform DR grading and lesion classification, effectively linking semantic medical concepts with visual features. The second stage introduces an iterative severity regression framework based on weakly-supervised semantic segmentation. Lesion saliency maps generated through iterative refinement direct a progressive inpainting mechanism that systematically eliminates pathological features, effectively downgrading disease severity toward healthier fundus appearances. Critically, this severity regression approach achieves dual benefits: accurate lesion localization without pixel-level supervision and providing an interpretable visualization of disease-to-healthy transformations. Experimental results on the FGADR, DDR, and a private dataset demonstrate that TWLR achieves competitive performance in both DR classification and lesion segmentation, offering a more explainable and annotation-efficient solution for automated retinal image analysis.
- Abstract(参考訳): 正確な医用画像解析は臨床診断に大いに役立つが、その効果は高品質な専門家アノテーションに依存している。
一方、医用画像における深層学習の成功にもかかわらず、解釈可能性の欠如は臨床応用を制限している。
これらの課題に対処するため,糖尿病網膜症(DR)評価のための2段階フレームワークであるTWLRを提案する。
第1段階では、視覚言語モデルは、ドメイン固有の眼科知識をテキスト埋め込みに統合し、DRグレーディングと病変分類を共同で実行し、意味医学の概念と視覚的特徴を効果的に結びつける。
第2段階では、弱教師付きセマンティックセグメンテーションに基づく反復重大度回帰フレームワークが導入されている。
イテレーティブ・リファインメント(英語版)を通じて生成された病変のサリエンシ・マップは、系統的に病理学的特徴を排除し、より健康的な根底への病気の重症度を効果的に低下させるプログレッシブ・インパインティング・メカニズムを誘導する。
この重度回帰アプローチは、ピクセルレベルの監督を伴わない正確な病変の局所化と、病気から健康への変換の解釈可能な可視化という2つの利点を達成している。
FGADR、DDR、およびプライベートデータセットの実験結果から、TWLRはDR分類と病変セグメンテーションの両方において競合性能を達成し、自動網膜画像解析のためのより説明可能な、アノテーション効率の良いソリューションを提供することが示された。
関連論文リスト
- A Semantically Enhanced Generative Foundation Model Improves Pathological Image Synthesis [82.01597026329158]
本稿では,組織合成のための相関調整フレームワーク(CRAFTS)について紹介する。
CRAFTSは、生物学的精度を確保するためにセマンティックドリフトを抑制する新しいアライメント機構を組み込んでいる。
本モデルは,30種類の癌にまたがる多彩な病理像を生成する。
論文 参考訳(メタデータ) (2025-12-15T10:22:43Z) - MIRNet: Integrating Constrained Graph-Based Reasoning with Pre-training for Diagnostic Medical Imaging [67.74482877175797]
MIRNetは、自己教師付き事前学習と制約付きグラフベースの推論を統合する新しいフレームワークである。
TongueAtlas-4Kは,22の診断ラベルを付した4,000枚の画像からなるベンチマークである。
論文 参考訳(メタデータ) (2025-11-13T06:30:41Z) - Self-Supervised Anatomical Consistency Learning for Vision-Grounded Medical Report Generation [61.350584471060756]
医用画像の臨床的に正確な記述を作成することを目的とした医用レポート生成。
本稿では, 自己監督型解剖学的一貫性学習(SS-ACL)を提案し, 生成された報告を対応する解剖学的領域と整合させる。
SS-ACLは、ヒト解剖学の不変のトップダウン包摂構造にインスパイアされた階層的な解剖学的グラフを構築する。
論文 参考訳(メタデータ) (2025-09-30T08:59:06Z) - Interpretable Few-Shot Retinal Disease Diagnosis with Concept-Guided Prompting of Vision-Language Models [11.076403908252754]
眼底画像から網膜疾患の解釈可能な概念を抽出するための2つの重要な戦略を実装した。
本手法は網膜疾患の分類を改善し,少ないショットとゼロショットの検出を増強する。
本手法は,実際の臨床応用に向けて,解釈可能かつ効率的な網膜疾患認識に向けた重要なステップである。
論文 参考訳(メタデータ) (2025-03-04T12:03:42Z) - Efficient Few-Shot Medical Image Analysis via Hierarchical Contrastive Vision-Language Learning [44.99833362998488]
医用画像解析のための階層的コントラストアライメント(HiCA)を用いた適応型視覚言語ファインタニングを提案する。
HiCAは、ドメイン固有の事前学習と階層的コントラスト学習を組み合わせて、視覚的およびテキスト的表現を複数のレベルで整列させる。
我々はChest X-rayとBreast Ultrasoundという2つのベンチマークデータセットに対するアプローチを評価した。
論文 参考訳(メタデータ) (2025-01-16T05:01:30Z) - XVertNet: Unsupervised Contrast Enhancement of Vertebral Structures with Dynamic Self-Tuning Guidance and Multi-Stage Analysis [2.1987431057890467]
胸部X線は救急医療の主要な診断ツールであり続けているが、微細な解剖学的詳細を捉える能力に限界があるため、診断が遅れることがある。
XVertNetは,X線画像における脊椎構造の可視化を著しく向上するために設計された,新しいディープラーニングフレームワークである。
論文 参考訳(メタデータ) (2023-06-06T19:36:11Z) - OTRE: Where Optimal Transport Guided Unpaired Image-to-Image Translation
Meets Regularization by Enhancing [4.951748109810726]
正確な診断と自動解析のために、最適な網膜画像品質が義務付けられている。
そこで本研究では,低品質の網膜CFPを高画質のCFPにマッピングするための画像対画像変換手法を提案する。
統合されたフレームワークOTREを3つの公開網膜画像データセット上で検証した。
論文 参考訳(メタデータ) (2023-02-06T18:39:40Z) - An Interpretable Multiple-Instance Approach for the Detection of
referable Diabetic Retinopathy from Fundus Images [72.94446225783697]
基礎画像における参照糖尿病網膜症検出のための機械学習システムを提案する。
画像パッチから局所情報を抽出し,アテンション機構により効率的に組み合わせることで,高い分類精度を実現することができる。
我々は,現在入手可能な網膜画像データセットに対するアプローチを評価し,最先端の性能を示す。
論文 参考訳(メタデータ) (2021-03-02T13:14:15Z) - Towards Unbiased COVID-19 Lesion Localisation and Segmentation via
Weakly Supervised Learning [66.36706284671291]
本研究では,画像レベルラベルのみに監視されたデータ駆動型フレームワークを提案する。
このフレームワークは、生成する対向ネットワークと病変特異的デコーダの助けを借りて、原画像から潜在的な病変を明示的に分離することができる。
論文 参考訳(メタデータ) (2021-03-01T06:05:49Z) - A Benchmark for Studying Diabetic Retinopathy: Segmentation, Grading,
and Transferability [76.64661091980531]
糖尿病患者は糖尿病網膜症(DR)を発症するリスクがある
コンピュータ支援型DR診断は、DRの早期検出と重度評価のための有望なツールである。
このデータセットは、ピクセルレベルのDR関連病変アノテーションを持つ1,842枚の画像と、6人の眼科医によって評価された画像レベルのラベルを持つ1,000枚の画像を有する。
論文 参考訳(メタデータ) (2020-08-22T07:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。