論文の概要: ViCTr: Vital Consistency Transfer for Pathology Aware Image Synthesis
- arxiv url: http://arxiv.org/abs/2505.04963v1
- Date: Thu, 08 May 2025 05:44:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 21:43:49.761632
- Title: ViCTr: Vital Consistency Transfer for Pathology Aware Image Synthesis
- Title(参考訳): ViCTr: 病理画像合成のための生体一貫性伝達
- Authors: Onkar Susladkar, Gayatri Deshmukh, Yalcin Tur, Ulas Bagci,
- Abstract要約: 既存の方法は、病理学的特徴を正確にモデル化しながら、解剖学的忠実さを維持するのに苦労する。
ViCTrは、修正フロー軌跡とTweedie補正拡散プロセスを組み合わせて、高忠実で病理学的な画像合成を実現する新しい2段階のフレームワークである。
我々の知る限り、ViCTrは、厳密度制御による細粒度で病理に配慮したMRI合成を提供するための最初の方法である。
- 参考スコア(独自算出の注目度): 0.7677637761052541
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Synthesizing medical images remains challenging due to limited annotated pathological data, modality domain gaps, and the complexity of representing diffuse pathologies such as liver cirrhosis. Existing methods often struggle to maintain anatomical fidelity while accurately modeling pathological features, frequently relying on priors derived from natural images or inefficient multi-step sampling. In this work, we introduce ViCTr (Vital Consistency Transfer), a novel two-stage framework that combines a rectified flow trajectory with a Tweedie-corrected diffusion process to achieve high-fidelity, pathology-aware image synthesis. First, we pretrain ViCTr on the ATLAS-8k dataset using Elastic Weight Consolidation (EWC) to preserve critical anatomical structures. We then fine-tune the model adversarially with Low-Rank Adaptation (LoRA) modules for precise control over pathology severity. By reformulating Tweedie's formula within a linear trajectory framework, ViCTr supports one-step sampling, reducing inference from 50 steps to just 4, without sacrificing anatomical realism. We evaluate ViCTr on BTCV (CT), AMOS (MRI), and CirrMRI600+ (cirrhosis) datasets. Results demonstrate state-of-the-art performance, achieving a Medical Frechet Inception Distance (MFID) of 17.01 for cirrhosis synthesis 28% lower than existing approaches and improving nnUNet segmentation by +3.8% mDSC when used for data augmentation. Radiologist reviews indicate that ViCTr-generated liver cirrhosis MRIs are clinically indistinguishable from real scans. To our knowledge, ViCTr is the first method to provide fine-grained, pathology-aware MRI synthesis with graded severity control, closing a critical gap in AI-driven medical imaging research.
- Abstract(参考訳): 医用画像の合成は, 注釈付き病理データ, モダリティ領域のギャップ, 肝硬変などのびまん性病変の表現が複雑化しているため, 依然として困難である。
既存の方法は、しばしば、自然画像や非効率的なマルチステップサンプリングから派生した先行情報に頼りながら、病理的特徴を正確にモデル化しながら、解剖学的忠実さを維持するのに苦労する。
本研究では,直流路とTweedie補正拡散過程を組み合わせ,高忠実で病理学的な画像合成を実現する新しい2段階のフレームワークであるViCTr(Vital Consistency Transfer)を紹介する。
第一に、重要な解剖学的構造を保存するために、Elastic Weight Consolidation (EWC) を用いてATLAS-8kデータセット上でViCTrを事前訓練する。
次に、病理重症度を正確に制御するために、ローランド適応(LoRA)モジュールと逆向きにモデルを微調整する。
トウィーディの公式を線形軌道の枠組みで再構成することにより、ViCTrは1段階のサンプリングをサポートし、推論を50段階から4段階に減らし、解剖学的リアリズムを犠牲にすることなく行う。
BTCV(CT)、AMOS(MRI)、CirrMRI600+(CirrMRI600+)のデータセットを用いたViCTrの評価を行った。
以上の結果から, 肝硬変合成におけるMFID(Malical Frechet Inception Distance)は既存のアプローチよりも28%低く, データ拡張では+3.8%, nnUNetセグメンテーションは+3.8%向上した。
ViCTr産生肝硬変MRIは、実際のスキャンと臨床的に区別できない。
我々の知る限り、ViCTrは、AI駆動型医用画像研究において重要なギャップを埋める、厳格な重度制御を備えた、きめ細かな病理学的MRI合成を提供する最初の方法である。
関連論文リスト
- Pathological MRI Segmentation by Synthetic Pathological Data Generation in Fetuses and Neonates [0.2595862142227317]
Fetal&Neonatal-DDPMは, セマンティックラベル画像から高品質な合成病理学的胎児・新生児MRIを生成するために設計された, 新しい拡散モデルフレームワークである。
Fetal/Neonatal-DDPMを用いて,これらの画像から現実的な病理MRIを合成する。
放射線医は、合成MRIは、実際のMRIと比較して、品質と診断値がかなり優れていると評価した。
論文 参考訳(メタデータ) (2025-01-31T17:36:24Z) - ContextMRI: Enhancing Compressed Sensing MRI through Metadata Conditioning [51.26601171361753]
本稿では, 微細なメタデータを再構成プロセスに統合したMRI用テキスト条件拡散モデルであるContextMRIを提案する。
メタデータの忠実度はスライス位置やコントラストから患者年齢、性別、病理まで増加し、体系的に再構築性能が向上することを示す。
論文 参考訳(メタデータ) (2025-01-08T05:15:43Z) - NT-ViT: Neural Transcoding Vision Transformers for EEG-to-fMRI Synthesis [7.542742087154667]
本稿ではニューラルトランスビジョントランス(モデル名)を紹介する。
モデル名(英: modelname)は、脳波同時計測(EEG)データから高分解能機能型磁気共鳴イメージング(fMRI)サンプルを推定するために設計された生成モデルである。
論文 参考訳(メタデータ) (2024-09-18T09:38:08Z) - Neurovascular Segmentation in sOCT with Deep Learning and Synthetic Training Data [4.5276169699857505]
本研究は, 連続断面光コヒーレンストモグラフィー画像における神経血管セグメンテーションのための合成エンジンについて述べる。
提案手法は,ラベル合成とラベル・ツー・イメージ変換の2段階からなる。
前者の有効性を,より現実的なトレーニングラベルの集合と比較し,後者を合成ノイズと人工物モデルのアブレーション研究により実証した。
論文 参考訳(メタデータ) (2024-07-01T16:09:07Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - Deep Few-view High-resolution Photon-counting Extremity CT at Halved Dose for a Clinical Trial [8.393536317952085]
ニュージーランドの臨床試験において,PCCT画像の半減量と2倍の速度で再現する深層学習に基づくアプローチを提案する。
本稿では,GPUメモリの制限を緩和するパッチベースのボリュームリファインメントネットワーク,合成データを用いたトレーニングネットワーク,およびモデルベースの反復リファインメントを用いて,合成データと実世界のギャップを埋める。
論文 参考訳(メタデータ) (2024-03-19T00:07:48Z) - Spatiotemporal Feature Learning Based on Two-Step LSTM and Transformer
for CT Scans [2.3682456328966115]
我々は、新型コロナウイルスの症状分類を徹底的に行うための、新しい、効果的、2段階のアプローチを提案する。
まず,従来のバックボーンネットワークにより,CTスキャンにおける各スライスの意味的特徴埋め込みを抽出する。
そこで我々は,時間的特徴学習を扱うために,LSTMとTransformerベースのサブネットワークを提案する。
論文 参考訳(メタデータ) (2022-07-04T16:59:05Z) - Weakly-supervised Biomechanically-constrained CT/MRI Registration of the
Spine [72.85011943179894]
本稿では,各脊椎の剛性と容積を保存し,登録精度を最大化しながら,弱教師付き深層学習フレームワークを提案する。
また,CTにおける椎体自動分節化はMRIと対比してより正確な結果をもたらすため,CTラベルマップのみに依存するよう,これらの損失を特に設計する。
以上の結果から, 解剖学的認識による損失の増大は, 精度を維持しつつも, 推測変換の妥当性を高めることが示唆された。
論文 参考訳(メタデータ) (2022-05-16T10:59:55Z) - Negligible effect of brain MRI data preprocessing for tumor segmentation [36.89606202543839]
我々は3つの公開データセットの実験を行い、ディープニューラルネットワークにおける異なる前処理ステップの効果を評価する。
その結果、最も一般的な標準化手順は、ネットワーク性能に何の価値も与えないことが示されている。
画像の規格化に伴う信号分散の低減のため,画像強度正規化手法はモデル精度に寄与しない。
論文 参考訳(メタデータ) (2022-04-11T17:29:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。