論文の概要: Joint Segmentation and Grading with Iterative Optimization for Multimodal Glaucoma Diagnosis
- arxiv url: http://arxiv.org/abs/2603.14188v1
- Date: Sun, 15 Mar 2026 02:25:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.659557
- Title: Joint Segmentation and Grading with Iterative Optimization for Multimodal Glaucoma Diagnosis
- Title(参考訳): マルチモーダル緑内障診断における反復的最適化による関節分画とグラフディング
- Authors: Zhiwei Wang, Yuxing Li, Meilu Zhu, Defeng He, Edmund Y. Lam,
- Abstract要約: 共同セグメント化とグレーディングのための反復的マルチモーダル最適化モデル(IMO)を提案する。
本手法はマルチモーダルな特徴を効果的に統合し,緑内障評価に対する包括的かつ臨床的に重要なアプローチを提供する。
- 参考スコア(独自算出の注目度): 24.89607563228897
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate diagnosis of glaucoma is challenging, as early-stage changes are subtle and often lack clear structural or appearance cues. Most existing approaches rely on a single modality, such as fundus or optical coherence tomography (OCT), capturing only partial pathological information and often missing early disease progression. In this paper, we propose an iterative multimodal optimization model (IMO) for joint segmentation and grading. IMO integrates fundus and OCT features through a mid-level fusion strategy, enhanced by a cross-modal feature alignment (CMFA) module to reduce modality discrepancies. An iterative refinement decoder progressively optimizes the multimodal features through a denoising diffusion mechanism, enabling fine-grained segmentation of the optic disc and cup while supporting accurate glaucoma grading. Extensive experiments show that our method effectively integrates multimodal features, providing a comprehensive and clinically significant approach to glaucoma assessment. Source codes are available at https://github.com/warren-wzw/IMO.git.
- Abstract(参考訳): 緑内障の正確な診断は、早期変化は微妙であり、しばしば明らかな構造的・外観的手がかりが欠如しているため困難である。
既存のアプローチの多くは、基礎や光コヒーレンス断層撮影(OCT)のような単一のモダリティに依存しており、部分的な病理情報のみを捉え、しばしば早期疾患の進行を欠いている。
本稿では,関節分割とグルーピングのための反復的マルチモーダル最適化モデル(IMO)を提案する。
IMOは、MFAモジュールによって強化された中級核融合戦略を通じて、ファンドスとOCTの機能を統合し、モダリティの相違を低減する。
反復精細復調デコーダは、偏光拡散機構により、多モード特徴を段階的に最適化し、正確な緑内障のグレーディングをサポートしつつ、光学ディスクとカップの微細なセグメンテーションを可能にする。
広汎な実験により,本手法はマルチモーダルな特徴を効果的に統合し,緑内障評価に対する包括的かつ臨床的に重要なアプローチを提供することが明らかとなった。
ソースコードはhttps://github.com/warren-wzw/IMO.git.comで入手できる。
関連論文リスト
- MedAD-R1: Eliciting Consistent Reasoning in Interpretible Medical Anomaly Detection via Consistency-Reinforced Policy Optimization [46.65200216642429]
我々はMedADの最初の大規模マルチモーダル・マルチセンタベンチマークであるMedAD-38Kを紹介し、構造化された視覚質問応答(VQA)ペアとともに、CoT(Chain-of-Thought)アノテーションを特徴付ける。
提案するモデルであるMedAD-R1は、MedAD-38Kベンチマーク上での最先端(SOTA)性能を実現し、強いベースラインを10%以上上回った。
論文 参考訳(メタデータ) (2026-02-01T07:56:10Z) - Multimodal Medical Image Classification via Synergistic Learning Pre-training [20.818508328120974]
マルチモーダルな半教師付き医用画像分類のための新しいフレームワークを提案する。
1つのモダリティを他のモダリティの強化サンプルとして扱うことにより、自己教師付き学習事前訓練を実装した。
微調整の段階では、異なるエンコーダを設定し、元のモダリティから特徴を抽出する。
論文 参考訳(メタデータ) (2025-09-22T08:21:19Z) - UOPSL: Unpaired OCT Predilection Sites Learning for Fundus Image Diagnosis Augmentation [47.08936359575974]
我々は,OCTから派生した空間的先行情報を用いて,捕食部位を動的に識別する新しい無ペアマルチモーダルフレームワーク UOPSL を提案する。
我々のアプローチは、拡張された病気のテキスト記述を通して、未治療の根本とOCTを橋渡しする。
28の重要カテゴリにわたる9つの多様なデータセットで実施された実験は、我々のフレームワークが既存のベンチマークを上回っていることを示している。
論文 参考訳(メタデータ) (2025-09-10T14:19:59Z) - Multimodal Medical Endoscopic Image Analysis via Progressive Disentangle-aware Contrastive Learning [11.158864816564538]
本稿では,Align-Disentangle-Fusion'機構に基づく,革新的な多モード表現学習フレームワークを提案する。
本手法は最先端のアプローチを一貫して上回り,様々な臨床シナリオにおいて高い精度を達成している。
論文 参考訳(メタデータ) (2025-08-23T03:02:51Z) - Robust Incomplete-Modality Alignment for Ophthalmic Disease Grading and Diagnosis via Labeled Optimal Transport [28.96009174108652]
眼底画像と光コヒーレンス断層撮影(OCT)を併用したマルチモーダル眼底画像診断を行った。
既存の一般的なパイプライン、例えばモダリティ計算や蒸留法は、顕著な制限に直面している。
本稿では,眼科診断の課題において欠落したモダリティを頑健に扱える新しい多モードアライメントと融合フレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-07T13:36:39Z) - ETSCL: An Evidence Theory-Based Supervised Contrastive Learning Framework for Multi-modal Glaucoma Grading [7.188153974946432]
緑内障は視覚障害の主要な原因の1つである。
医用画像の類似度が高いことと、不均衡なマルチモーダルデータ分布のため、信頼性の高い特徴を抽出することは依然として困難である。
コントラストのある特徴抽出段階と決定レベルの融合段階からなる新しいフレームワークであるETSCLを提案する。
論文 参考訳(メタデータ) (2024-07-19T11:57:56Z) - Eye-gaze Guided Multi-modal Alignment for Medical Representation Learning [65.54680361074882]
アイゲイズガイドマルチモーダルアライメント(EGMA)フレームワークは、アイゲイズデータを利用して、医用視覚的特徴とテキスト的特徴のアライメントを改善する。
我々は4つの医療データセット上で画像分類と画像テキスト検索の下流タスクを行う。
論文 参考訳(メタデータ) (2024-03-19T03:59:14Z) - ELF: An End-to-end Local and Global Multimodal Fusion Framework for
Glaucoma Grading [43.12236694270165]
ELFと呼ばれる緑内障のグレーディングのための,エンドツーエンドの局所的およびグローバルなマルチモーダル融合フレームワークを提案する。
ELFは、FundusとOCTの補完情報を十分に活用することができる。
GAMMAデータセットを用いたマルチモーダル緑内障に対する広範囲な実験により,ELFの有効性が証明された。
論文 参考訳(メタデータ) (2023-11-14T09:51:00Z) - COROLLA: An Efficient Multi-Modality Fusion Framework with Supervised
Contrastive Learning for Glaucoma Grading [1.2250035750661867]
緑内障の診断に有効な多モード教師付きコントラスト学習フレームワークであるCOROLLAを提案する。
教師付きコントラスト学習を用いて、より良い収束性でモデルの識別能力を高めます。
GAMMAデータセットでは,我々のCOROLLAフレームワークは最先端の手法と比較して圧倒的な緑内障グレーディング性能を達成している。
論文 参考訳(メタデータ) (2022-01-11T06:00:51Z) - Robust Multimodal Brain Tumor Segmentation via Feature Disentanglement
and Gated Fusion [71.87627318863612]
画像モダリティの欠如に頑健な新しいマルチモーダルセグメンテーションフレームワークを提案する。
我々のネットワークは、入力モードをモダリティ固有の外観コードに分解するために、特徴不整合を用いる。
我々は,BRATSチャレンジデータセットを用いて,重要なマルチモーダル脳腫瘍セグメンテーション課題に対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-02-22T14:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。