論文の概要: Vision-Language Controlled Deep Unfolding for Joint Medical Image Restoration and Segmentation
- arxiv url: http://arxiv.org/abs/2601.23103v1
- Date: Fri, 30 Jan 2026 15:48:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.539558
- Title: Vision-Language Controlled Deep Unfolding for Joint Medical Image Restoration and Segmentation
- Title(参考訳): 視線制御による医用画像修復と分割のための深部展開
- Authors: Ping Chen, Zicheng Huang, Xiangming Wang, Yungeng Liu, Bingyu Liang, Haijin Zeng, Yongyong Chen,
- Abstract要約: AiOMIRSとオールインワン医用画像修復のための原則的枠組みを提案する。
本研究では,大域的セグメンテーションのための長距離依存関係を捕捉し,復元に必要な高周波テクスチャを保存するための周波数認識型Mamba機構を提案する。
AiOMIRSタスクの先駆的な作業として、VL-DUNはマルチモーダルベンチマークにまたがる新しい最先端技術を確立し、PSNRを0.92dB、Dice係数を9.76%改善した。
- 参考スコア(独自算出の注目度): 34.04441838578788
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose VL-DUN, a principled framework for joint All-in-One Medical Image Restoration and Segmentation (AiOMIRS) that bridges the gap between low-level signal recovery and high-level semantic understanding. While standard pipelines treat these tasks in isolation, our core insight is that they are fundamentally synergistic: restoration provides clean anatomical structures to improve segmentation, while semantic priors regularize the restoration process. VL-DUN resolves the sub-optimality of sequential processing through two primary innovations. (1) We formulate AiOMIRS as a unified optimization problem, deriving an interpretable joint unfolding mechanism where restoration and segmentation are mathematically coupled for mutual refinement. (2) We introduce a frequency-aware Mamba mechanism to capture long-range dependencies for global segmentation while preserving the high-frequency textures necessary for restoration. This allows for efficient global context modeling with linear complexity, effectively mitigating the spectral bias of standard architectures. As a pioneering work in the AiOMIRS task, VL-DUN establishes a new state-of-the-art across multi-modal benchmarks, improving PSNR by 0.92 dB and the Dice coefficient by 9.76\%. Our results demonstrate that joint collaborative learning offers a superior, more robust solution for complex clinical workflows compared to isolated task processing. The codes are provided in https://github.com/cipi666/VLDUN.
- Abstract(参考訳): 我々は,低レベル信号回復と高レベル意味理解のギャップを埋める,オールインワン医用画像修復・分割(AiOMIRS)の原則的枠組みであるVL-DUNを提案する。
標準的なパイプラインはこれらのタスクを分離して扱うが、その中核となる洞察は、それらが基本的に相乗的であることである。
VL-DUNは2つの主要な革新を通じて逐次処理の準最適性を解決する。
1) AiOMIRSを統一最適化問題として定式化し, 相互改良のために, 修復とセグメント化を数学的に結合した解釈可能な関節展開機構を導出する。
2) 回復に必要な高周波テクスチャを保ちながら, グローバルセグメンテーションのための長距離依存関係を捕捉する周波数認識型マンバ機構を提案する。
これにより、線形複雑性を伴う効率的なグローバルコンテキストモデリングが可能になり、標準アーキテクチャのスペクトルバイアスを効果的に軽減することができる。
AiOMIRSタスクの先駆的な作業として、VL-DUNはマルチモーダルベンチマークにまたがる新しい最先端技術を確立し、PSNRを0.92dB、Dice係数を9.76\%改善した。
この結果から,統合協調学習は,独立したタスク処理に比べて,複雑な臨床ワークフローに対して,より優れた,より堅牢なソリューションを提供することが示された。
コードはhttps://github.com/cipi666/VLDUNで提供されている。
関連論文リスト
- UniX: Unifying Autoregression and Diffusion for Chest X-Ray Understanding and Generation [98.93314262366681]
胸部X線理解・生成のための次世代統合医療基盤モデルUniXについて述べる。
UniXは2つのタスクを、理解のための自己回帰分岐と高忠実度生成のための拡散分岐に分離する。
2つの代表的なベンチマークでは、Unixは46.1%の性能向上と24.2%の世代品質向上を実現している。
論文 参考訳(メタデータ) (2026-01-16T18:59:58Z) - Moving Beyond Diffusion: Hierarchy-to-Hierarchy Autoregression for fMRI-to-Image Reconstruction [65.67001243986981]
我々は,スケールワイド自己回帰モデルに基づく粗大なfMRI画像再構成フレームワークであるMindHierを提案する。
MindHierは、拡散ベースのベースラインよりも優れたセマンティック忠実さ、4.67倍高速な推論、より決定論的結果を達成する。
論文 参考訳(メタデータ) (2025-10-25T15:40:07Z) - UniMRSeg: Unified Modality-Relax Segmentation via Hierarchical Self-Supervised Compensation [104.59740403500132]
マルチモーダルイメージセグメンテーションは、不完全/破損したモダリティの劣化による実際のデプロイメント課題に直面している。
階層型自己教師型補償(HSSC)による統一Modality-relaxセグメンテーションネットワーク(UniMRSeg)を提案する。
我々のアプローチは、入力レベル、特徴レベル、出力レベルをまたいだ完全なモダリティと不完全なモダリティの間の表現ギャップを階層的に橋渡しします。
論文 参考訳(メタデータ) (2025-09-19T17:29:25Z) - GENRE-CMR: Generalizable Deep Learning for Diverse Multi-Domain Cardiac MRI Reconstruction [0.8749675983608171]
本稿では,GAN(Generative Adversarial Network)ベースのアーキテクチャであるGENRE-CMRを提案する。
実験により、GENRE-CMRはトレーニングおよび未確認データに関する最先端の手法を超越し、未確認の分布に対して 0.9552 SSIM と 38.90 dB PSNR を達成したことが確認された。
我々のフレームワークは、高品質なCMR再構成のための統一的で堅牢なソリューションを提供し、不均一な取得プロトコルをまたいだ臨床適応可能なデプロイメントの道を開く。
論文 参考訳(メタデータ) (2025-08-28T09:43:59Z) - Decoupling Multi-Contrast Super-Resolution: Pairing Unpaired Synthesis with Implicit Representations [6.255537948555454]
マルチコントラスト・スーパーリゾリューション技術は、低解像度のコントラストの品質を高めることができる。
既存のMCSRメソッドは、しばしば固定解像度の設定を前提としており、すべて大きな完全にペアのトレーニングデータセットを必要とする。
本稿では,ペア化トレーニングデータの必要性を排除し,任意のアップスケーリングをサポートするモジュール型マルチコントラスト超解法フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-09T07:48:52Z) - PMT: Progressive Mean Teacher via Exploring Temporal Consistency for Semi-Supervised Medical Image Segmentation [51.509573838103854]
医用画像セグメンテーションのための半教師付き学習フレームワークであるプログレッシブ平均教師(PMT)を提案する。
我々のPMTは、トレーニングプロセスにおいて、堅牢で多様な特徴を学習することで、高忠実な擬似ラベルを生成する。
CT と MRI の異なる2つのデータセットに対する実験結果から,本手法が最先端の医用画像分割法より優れていることが示された。
論文 参考訳(メタデータ) (2024-09-08T15:02:25Z) - Deep Unfolding Network with Spatial Alignment for multi-modal MRI reconstruction [16.23059795712369]
多モードMRI(Multi-modal Magnetic Resonance Imaging)は相補的な診断情報を提供するが、長い走査時間によっていくつかのモダリティが制限される。
取得過程全体を高速化するため、高アンサンプされたk空間データから他の完全サンプリングされた参照モダリティへのMRI再構成は効率的な解である。
モーダリティ間のミスアライメントを考慮に入れた既存のディープラーニングベースの手法は、パフォーマンスが向上するが、しかしながら2つの主要な共通制限を共有している。
論文 参考訳(メタデータ) (2023-12-28T13:02:16Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。