論文の概要: DINOMotion: advanced robust tissue motion tracking with DINOv2 in 2D-Cine MRI-guided radiotherapy
- arxiv url: http://arxiv.org/abs/2508.10260v1
- Date: Thu, 14 Aug 2025 01:02:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.147872
- Title: DINOMotion: advanced robust tissue motion tracking with DINOv2 in 2D-Cine MRI-guided radiotherapy
- Title(参考訳): DINOMotion:2D-Cine MRI誘導放射線治療におけるDINOv2を用いた高度な堅牢な組織運動追跡
- Authors: Soorena Salari, Catherine Spino, Laurie-Anne Pharand, Fabienne Lathuiliere, Hassan Rivaz, Silvain Beriault, Yiming Xiao,
- Abstract要約: DINOMotionは、ロバストで効率的な、解釈可能なモーショントラッキングのための新しいディープラーニングフレームワークである。
DINOMotionは、対応するランドマークを自動的に検出し、最適な画像登録を導き、解釈可能性を高める。
ボランティアおよび患者データセットに対する実験は、線形および非線形の変換を推定する上で、その効果を実証する。
- 参考スコア(独自算出の注目度): 1.9458647657637413
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate tissue motion tracking is critical to ensure treatment outcome and safety in 2D-Cine MRI-guided radiotherapy. This is typically achieved by registration of sequential images, but existing methods often face challenges with large misalignments and lack of interpretability. In this paper, we introduce DINOMotion, a novel deep learning framework based on DINOv2 with Low-Rank Adaptation (LoRA) layers for robust, efficient, and interpretable motion tracking. DINOMotion automatically detects corresponding landmarks to derive optimal image registration, enhancing interpretability by providing explicit visual correspondences between sequential images. The integration of LoRA layers reduces trainable parameters, improving training efficiency, while DINOv2's powerful feature representations offer robustness against large misalignments. Unlike iterative optimization-based methods, DINOMotion directly computes image registration at test time. Our experiments on volunteer and patient datasets demonstrate its effectiveness in estimating both linear and nonlinear transformations, achieving Dice scores of 92.07% for the kidney, 90.90% for the liver, and 95.23% for the lung, with corresponding Hausdorff distances of 5.47 mm, 8.31 mm, and 6.72 mm, respectively. DINOMotion processes each scan in approximately 30ms and consistently outperforms state-of-the-art methods, particularly in handling large misalignments. These results highlight its potential as a robust and interpretable solution for real-time motion tracking in 2D-Cine MRI-guided radiotherapy.
- Abstract(参考訳): 正確な組織運動追跡は、2D-Cine MRI誘導放射線治療における治療結果と安全性を確保するために重要である。
これは典型的にはシーケンシャルな画像の登録によって達成されるが、既存の手法は大きなミスアライメントと解釈可能性の欠如を伴う課題に直面していることが多い。
本稿では,DINOv2に基づく新しいディープラーニングフレームワークであるDINOMotionについて紹介する。
DINOMotionは、対応するランドマークを自動的に検出して最適な画像登録を導き、シーケンシャル画像間の明示的な視覚的対応を提供することで、解釈可能性を高める。
LoRAレイヤの統合により、トレーニング可能なパラメータが削減され、トレーニング効率が向上する一方、DINOv2の強力な機能表現は、大きなミスアライメントに対して堅牢性を提供する。
反復最適化法とは異なり、DINOMotionはテスト時に画像登録を直接計算する。
ボランティアおよび患者のデータセットを用いた実験では, 線形および非線形の変換を推定し, 92.07%の腎臓, 90.90%の肝臓, 95.23%の肺, 5.47 mm, 8.31 mm, 6.72 mmのハースドルフ距離が得られた。
DINOMotionは、各スキャンを約30ミリ秒で処理し、特に大きなミスアライメントの処理において、最先端のメソッドを一貫して上回っている。
これらの結果は、2D-Cine MRI誘導放射線治療におけるリアルタイムモーショントラッキングのための堅牢で解釈可能なソリューションとしての可能性を強調した。
関連論文リスト
- The Brain Resection Multimodal Image Registration (ReMIND2Reg) 2025 Challenge [42.51640997446028]
ReMIND2Reg 2025 Challengeは、ReMINDデータセットに基づいて構築された、このタスクのための最大の公開ベンチマークを提供する。
99のトレーニングケース、5のバリデーションケース、10のプライベートテストケースがペアの3D ceT1 MRI、T2 MRI、そして術後3D iUSボリュームで構成されている。
データはトレーニングのためのアノテーションなしで提供され、検証とテストのパフォーマンスは手動で注釈付けされた解剖学的ランドマークで評価される。
論文 参考訳(メタデータ) (2025-08-13T09:31:06Z) - Modality-agnostic, patient-specific digital twins modeling temporally varying digestive motion [8.884066499888718]
変形性画像登録(DIR)の臨床的実装には、ボクセルによる空間精度測定が必要である。
DIR法の精度を評価するため,患者固有のディジタルツイン(DT)モデルを構築した。
論文 参考訳(メタデータ) (2025-07-02T17:22:47Z) - Latent Diffusion Autoencoders: Toward Efficient and Meaningful Unsupervised Representation Learning in Medical Imaging [41.446379453352534]
LDAE(Latent Diffusion Autoencoder)は、医用画像における効率的で有意義な教師なし学習のための、エンコーダ-デコーダ拡散に基づく新しいフレームワークである。
本研究は,ADNIデータベースの脳MRIを用いたアルツハイマー病(AD)を事例として検討した。
論文 参考訳(メタデータ) (2025-04-11T15:37:46Z) - A Novel Automatic Real-time Motion Tracking Method in MRI-guided Radiotherapy Using Enhanced Tracking-Learning-Detection Framework with Automatic Segmentation [9.332679162161428]
MRI誘導放射線療法(MRIgRT)における正確な運動追跡は効果的な治療デリバリーに不可欠である。
本研究は,MRIgRTにおける運動追跡精度をリアルタイムマーカーレス自動追跡法により向上することを目的とした。
論文 参考訳(メタデータ) (2024-11-12T03:01:39Z) - Rotational Augmented Noise2Inverse for Low-dose Computed Tomography
Reconstruction [83.73429628413773]
改良された深層学習手法は、画像のノイズを除去する能力を示しているが、正確な地上の真実を必要とする。
畳み込みニューラルネットワーク(CNN)のトレーニングに基礎的真理を必要としないLDCTのための新しい自己教師型フレームワークを提案する。
数値および実験結果から,Sparse View を用いた N2I の再構成精度は低下しており,提案手法は異なる範囲のサンプリング角度で画像品質を向上する。
論文 参考訳(メタデータ) (2023-12-19T22:40:51Z) - Weakly supervised segmentation of intracranial aneurysms using a novel 3D focal modulation UNet [0.5106162890866905]
本稿では,新しい3次元焦点変調UNetであるFocalSegNetを提案する。
UIA検出では偽陽性率は0.21で感度は0.80であった。
論文 参考訳(メタデータ) (2023-08-06T03:28:08Z) - 3-Dimensional Deep Learning with Spatial Erasing for Unsupervised
Anomaly Segmentation in Brain MRI [55.97060983868787]
我々は,MRIボリュームと空間消去を組み合わせた空間文脈の増大が,教師なしの異常セグメンテーション性能の向上に繋がるかどうかを検討する。
本稿では,2次元変分オートエンコーダ(VAE)と3次元の相違点を比較し,3次元入力消去を提案し,データセットサイズが性能に与える影響を体系的に検討する。
入力消去による最高の3D VAEは、平均DICEスコアが31.40%となり、2D VAEは25.76%となった。
論文 参考訳(メタデータ) (2021-09-14T09:17:27Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z) - Volumetric Attention for 3D Medical Image Segmentation and Detection [53.041572035020344]
3次元医用画像のセグメンテーションと検出のためのボリュームアテンション(VA)モジュールを提案する。
VAアテンションはビデオ処理の最近の進歩にインスパイアされ、2.5Dネットワークはz方向のコンテキスト情報を活用することができる。
そのMask R-CNNへの統合は、肝腫瘍(LiTS)チャレンジにおける最先端のパフォーマンスを可能にすることが示されている。
論文 参考訳(メタデータ) (2020-04-04T18:55:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。