論文の概要: Any-to-All MRI Synthesis: A Unified Foundation Model for Nasopharyngeal Carcinoma and Its Downstream Applications
- arxiv url: http://arxiv.org/abs/2602.08822v1
- Date: Mon, 09 Feb 2026 15:56:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.340912
- Title: Any-to-All MRI Synthesis: A Unified Foundation Model for Nasopharyngeal Carcinoma and Its Downstream Applications
- Title(参考訳): Any-to-All MRI 合成 : 鼻咽喉頭癌に対する統一基盤モデルとその応用
- Authors: Yao Pu, Yiming Shi, Zhenxi Zhang, Peixin Yu, Yitao Zhuang, Xiang Wang, Hongzhao Chen, Jing Cai, Ge Ren,
- Abstract要約: 従来のMRI合成法は、モダリティに特有であり、解剖学的適応性に制限があり、NPCのRTニーズを満たすための臨床的解釈可能性の欠如がある。
そこで我々は,コントラッシブな視覚表現学習と視覚言語アライメント(VLA)を統合した統合基盤モデルを構築した。
このモデルは、モダリティ不変表現のためのコントラストエンコーダと、セマンティック一貫性のある合成のためのCLIPベースのテキストインフォームドデコーダを使用し、1つの統合基盤モデルを介して、任意の対全MRI合成をサポートする。
- 参考スコア(独自算出の注目度): 11.15455619035484
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Magnetic resonance imaging (MRI) is essential for nasopharyngeal carcinoma (NPC) radiotherapy (RT), but practical constraints, such as patient discomfort, long scan times, and high costs often lead to incomplete modalities in clinical practice, compromising RT planning accuracy. Traditional MRI synthesis methods are modality-specific, limited in anatomical adaptability, and lack clinical interpretability-failing to meet NPC's RT needs. Here, we developed a unified foundation model integrating contrastive visual representation learning and vision-language alignment (VLA) to enable any-to-all MRI synthesis. The model uses a contrastive encoder for modality-invariant representations and a CLIP-based text-informed decoder for semantically consistent synthesis, supporting any-to-all MRI synthesis via one unified foundation model. Trained on 40,825 images from 13 institutions, it achieves consistently high performance (average SSIM 0.90, PSNR 27) across 26 internal/external validation sites (15,748 images), with superior synthesis fidelity and robustness to noise and domain shifts. Meanwhile, its unified representation enhances downstream RT-relevant tasks (e.g., segmentation). This work advances digital medicine solutions for NPC care by leveraging foundation models to bridge technical synthesis and clinical utility.
- Abstract(参考訳): MRIは鼻咽喉頭癌(NPC)放射線治療(RT)に必須であるが,患者の不快感,長期スキャン時間,高コストなどの実用的制約は臨床実習において不完全なモダリティをもたらし,RT計画の精度を損なうことも多い。
従来のMRI合成法は、モダリティに特有であり、解剖学的適応性に制限があり、NPCのRTニーズを満たすための臨床的解釈可能性の欠如がある。
そこで我々は,コントラッシブな視覚表現学習と視覚言語アライメント(VLA)を統合した統合基盤モデルを構築した。
このモデルは、モダリティ不変表現のためのコントラストエンコーダと、セマンティック一貫性のある合成のためのCLIPベースのテキストインフォームドデコーダを使用し、1つの統合基盤モデルを介して、任意の対全MRI合成をサポートする。
13の機関の40,825枚の画像に基づいてトレーニングされ、26の内外的検証サイト(15,748枚)にわたって、一貫した高性能(平均SSIM 0.90, PSNR 27)を実現し、合成精度とノイズやドメインシフトに対する堅牢性に優れる。
一方、統一表現は下流のRT関連タスク(例えばセグメンテーション)を強化する。
本研究は,NPCケアのためのデジタル医療ソリューションを基礎モデルを利用して,技術合成と臨床応用を橋渡しする。
関連論文リスト
- Synthetic Vasculature and Pathology Enhance Vision-Language Model Reasoning [39.96133625333846]
本稿では,SVR(Synthetic Vasculature Reasoning)について紹介する。
これに基づいて10万対のOCTAイメージ推論データセットであるOCTA-100K-SVRをキュレートする。
実験により,データセット上で訓練された汎用VLMは,実際のOCTA画像に対して89.67%のゼロショットバランスの分類精度が得られることがわかった。
論文 参考訳(メタデータ) (2025-12-11T19:19:39Z) - ViCTr: Vital Consistency Transfer for Pathology Aware Image Synthesis [0.715632820500919]
既存の方法は、病理学的特徴を正確にモデル化しながら、解剖学的忠実さを維持するのに苦労する。
ViCTrは、修正フロー軌跡とTweedie補正拡散プロセスを組み合わせて、高忠実で病理学的な画像合成を実現する新しい2段階のフレームワークである。
我々の知る限り、ViCTrは、厳密度制御による細粒度で病理に配慮したMRI合成を提供するための最初の方法である。
論文 参考訳(メタデータ) (2025-05-08T05:44:16Z) - Interactive Gadolinium-Free MRI Synthesis: A Transformer with Localization Prompt Learning [6.716077690014641]
本研究では,非コントラストMR画像からCE-MRIを合成するトランスフォーマとローカライゼーション・プロンプツのフレームワークを提案する。
本アーキテクチャでは,マルチスケール機能を処理するために効率的なトランスフォーマーを使用する階層的バックボーン,空間的注意操作と相互注意機構を通じて相互補完情報を階層的に統合する多段階融合システム,という3つの重要なイノベーションを導入している。
このフレームワークは、放射線科医が推論中に診断プロンプトを入力し、人工知能と医療の専門知識を相乗化することによって、インタラクティブな臨床統合を可能にする。
論文 参考訳(メタデータ) (2025-03-03T07:44:28Z) - A Unified Model for Compressed Sensing MRI Across Undersampling Patterns [69.19631302047569]
様々な計測アンサンプパターンと画像解像度に頑健な統合MRI再構成モデルを提案する。
我々のモデルは、拡散法よりも600$times$高速な推論で、最先端CNN(End-to-End VarNet)の4dBでSSIMを11%改善し、PSNRを4dB改善する。
論文 参考訳(メタデータ) (2024-10-05T20:03:57Z) - Towards General Text-guided Image Synthesis for Customized Multimodal Brain MRI Generation [51.28453192441364]
マルチモーダル脳磁気共鳴(MR)イメージングは神経科学や神経学において不可欠である。
現在のMR画像合成アプローチは、通常、特定のタスクのための独立したデータセットで訓練される。
テキスト誘導ユニバーサルMR画像合成モデルであるTUMSynについて述べる。
論文 参考訳(メタデータ) (2024-09-25T11:14:47Z) - CMRxRecon2024: A Multi-Modality, Multi-View K-Space Dataset Boosting Universal Machine Learning for Accelerated Cardiac MRI [40.11088079783521]
CMRxRecon2024データセットは、最も大きく、最もプロトカルなディバースで公開されている心臓k空間データセットである。
健常者330名から取得され、一般的に使用されるモダリティ、解剖学的視点、臨床心臓MRIにおける獲得軌跡をカバーしている。
論文 参考訳(メタデータ) (2024-06-27T09:50:20Z) - Model-Guided Multi-Contrast Deep Unfolding Network for MRI
Super-resolution Reconstruction [68.80715727288514]
MRI観察行列を用いて,反復型MGDUNアルゴリズムを新しいモデル誘導深部展開ネットワークに展開する方法を示す。
本稿では,医療画像SR再構成のためのモデルガイド型解釈可能なDeep Unfolding Network(MGDUN)を提案する。
論文 参考訳(メタデータ) (2022-09-15T03:58:30Z) - ResViT: Residual vision transformers for multi-modal medical image
synthesis [0.0]
本稿では、畳み込み演算子の局所的精度と視覚変換器の文脈的感度を組み合わせ、医用画像合成のための新しい生成逆変換手法ResViTを提案する。
以上の結果から,ResViTと競合する手法の質的観察と定量化の両面での優位性が示唆された。
論文 参考訳(メタデータ) (2021-06-30T12:57:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。