論文の概要: MedDIFT: Multi-Scale Diffusion-Based Correspondence in 3D Medical Imaging
- arxiv url: http://arxiv.org/abs/2512.05571v1
- Date: Fri, 05 Dec 2025 09:53:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-13 22:40:56.984174
- Title: MedDIFT: Multi-Scale Diffusion-Based Correspondence in 3D Medical Imaging
- Title(参考訳): MedDIFT : 3次元医用画像における多次元拡散対応
- Authors: Xingyu Zhang, Anna Reithmeir, Fryderyk Kögl, Rickmer Braren, Julia A. Schnabel, Daniel M. Lang,
- Abstract要約: 本稿では,Voxelディスクリプタとして事前訓練された潜伏医療拡散モデルのマルチスケール特徴を利用する,トレーニングフリーな3D対応フレームワークであるMedDIFTを提案する。
公開されている肺CTデータセットでは、MedDIFTは最先端のUniGradICONモデルに匹敵する対応精度を達成している。
- 参考スコア(独自算出の注目度): 6.520674045578402
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate spatial correspondence between medical images is essential for longitudinal analysis, lesion tracking, and image-guided interventions. Medical image registration methods rely on local intensity-based similarity measures, which fail to capture global semantic structure and often yield mismatches in low-contrast or anatomically variable regions. Recent advances in diffusion models suggest that their intermediate representations encode rich geometric and semantic information. We present MedDIFT, a training-free 3D correspondence framework that leverages multi-scale features from a pretrained latent medical diffusion model as voxel descriptors. MedDIFT fuses diffusion activations into rich voxel-wise descriptors and matches them via cosine similarity, with an optional local-search prior. On a publicly available lung CT dataset, MedDIFT achieves correspondence accuracy comparable to the state-of-the-art learning-based UniGradICON model and surpasses conventional B-spline-based registration, without requiring any task-specific model training. Ablation experiments confirm that multi-level feature fusion and modest diffusion noise improve performance.
- Abstract(参考訳): 医用画像間の正確な空間対応は, 縦断的解析, 病変追跡, 画像誘導的介入に不可欠である。
医用画像登録法は局所強度に基づく類似度尺度に依存しており、グローバルな意味構造を捉えることができず、しばしば低コントラスト領域や解剖学的に変化する領域でミスマッチを生じる。
拡散モデルの最近の進歩は、それらの中間表現がリッチな幾何学的および意味的な情報を符号化していることを示唆している。
本稿では,Voxelディスクリプタとして事前訓練された潜伏医療拡散モデルのマルチスケール特徴を利用する,トレーニングフリーな3D対応フレームワークであるMedDIFTを提案する。
MedDIFTは、拡散活性化をリッチなボクセルワイドディスクリプタに融合させ、コサイン類似性(cosine similarity)とオプションの局所探索(local-search)によって一致させる。
公開されている肺CTデータセットでは、MedDIFTは、最先端の学習ベースのUniGradICONモデルに匹敵する対応精度を達成し、タスク固有のモデルトレーニングを必要とせず、従来のB-スプラインベースの登録を超越している。
アブレーション実験により,マルチレベル特徴融合とモデスト拡散雑音により性能が向上することが確認された。
関連論文リスト
- MedCondDiff: Lightweight, Robust, Semantically Guided Diffusion for Medical Image Segmentation [5.838464931565891]
医用画像セグメンテーションのための拡散型フレームワークであるMedCondDiffを紹介する。
モデルでは、ピラミッドビジョントランスフォーマー(PVT)バックボーンから抽出されたセマンティックプリエントをデノナイズ処理する。
この設計は、推論時間とVRAM使用量の両方を削減しながら、堅牢性を改善する。
論文 参考訳(メタデータ) (2025-11-29T06:43:15Z) - FoundDiff: Foundational Diffusion Model for Generalizable Low-Dose CT Denoising [55.04342933312839]
本稿では,CT(低線量CT)デノナイズのための基礎拡散モデルFoundDiffを提案する。
FoundDiffは、(i)線量解剖学的知覚と(ii)適応的認知という2段階の戦略を採用している。
まず, 線量および解剖学的知覚を実現するために, 線量および解剖学的対応型コントラスト言語画像事前訓練モデル(DA-CLIP)を開発した。
第2に,適応的および一般化可能な復調を行うために,線量および解剖学的拡散モデル(DA-Diff)を設計する。
論文 参考訳(メタデータ) (2025-08-24T11:03:56Z) - Meta-Entity Driven Triplet Mining for Aligning Medical Vision-Language Models [9.76070837929117]
既存のアライメント手法は、微粒な病理属性の分離よりも病気のクラス間の分離を優先する。
本稿では,マルチモーダル三重項学習による画像テキストアライメントを向上させる新しい手法であるMedTrimを提案する。
我々の実証では,MedTrimは,最先端のアライメント手法と比較して,下流検索および分類タスクの性能を向上させることが示されている。
論文 参考訳(メタデータ) (2025-04-22T14:17:51Z) - Latent Drifting in Diffusion Models for Counterfactual Medical Image Synthesis [55.959002385347645]
遅延ドリフトにより、医療画像に対して拡散モデルを条件付けし、反ファクト画像生成の複雑なタスクに適合させることができる。
我々は,脳MRIと胸部X線による3つの時系列的ベンチマークデータセットを用いて,対物画像生成法について検討した。
論文 参考訳(メタデータ) (2024-12-30T01:59:34Z) - Similarity-aware Syncretic Latent Diffusion Model for Medical Image Translation with Representation Learning [15.234393268111845]
非造影CT(non-contrast CT)は画像のコントラストと解剖学的視認性を低下させ、診断の不確実性を増大させる可能性がある。
医用画像翻訳のための潜時拡散モデルに基づく新しいシンプレティック生成モデル(S$2$LDM)を提案する。
S$2$LDMは、シンプレティックエンコーディングと拡散を通じて、異なるモーダル画像の類似性を高め、潜伏空間における重複情報を促進し、対照的に強調された領域でより詳細な医療画像を生成する。
論文 参考訳(メタデータ) (2024-06-20T03:54:41Z) - Unlocking the Power of Spatial and Temporal Information in Medical Multimodal Pre-training [99.2891802841936]
我々は,空間的・時間的微粒なモデリングのためのMed-STフレームワークを提案する。
空間モデリングでは、Med-STはMixture of View Expert (MoVE)アーキテクチャを使用して、正面と横の両方のビューから異なる視覚的特徴を統合する。
時間的モデリングのために,フォワードマッピング分類 (FMC) とリバースマッピング回帰 (RMR) による新たな双方向サイクル整合性目標を提案する。
論文 参考訳(メタデータ) (2024-05-30T03:15:09Z) - Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - Diff-UNet: A Diffusion Embedded Network for Volumetric Segmentation [41.608617301275935]
医療用ボリュームセグメンテーションのための新しいエンドツーエンドフレームワークDiff-UNetを提案する。
提案手法では,拡散モデルを標準U字型アーキテクチャに統合し,入力ボリュームから意味情報を効率的に抽出する。
われわれは,MRI,肝腫瘍,多臓器CTの3種類の脳腫瘍について検討した。
論文 参考訳(メタデータ) (2023-03-18T04:06:18Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。