論文の概要: MoNetV2: Enhanced Motion Network for Freehand 3D Ultrasound Reconstruction
- arxiv url: http://arxiv.org/abs/2506.15835v1
- Date: Mon, 16 Jun 2025 04:57:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:04.821084
- Title: MoNetV2: Enhanced Motion Network for Freehand 3D Ultrasound Reconstruction
- Title(参考訳): フリーハンド3次元超音波再構成のための運動ネットワークMoNetV2
- Authors: Mingyuan Luo, Xin Yang, Zhongnuo Yan, Yan Cao, Yuanji Zhang, Xindi Hu, Jin Wang, Haoxuan Ding, Wei Han, Litao Sun, Dong Ni,
- Abstract要約: 本研究では,多様な走査速度と戦術の下での再構成の精度と一般化性を高めるために,MoNetV2の拡張型モーションネットワークを提案する。
MoNetV2は、再構築品質と3つの大きなデータセットでの汎用性の両方のパフォーマンスにおいて、既存のメソッドを上回っている。
- 参考スコア(独自算出の注目度): 11.531888235029445
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Three-dimensional (3D) ultrasound (US) aims to provide sonographers with the spatial relationships of anatomical structures, playing a crucial role in clinical diagnosis. Recently, deep-learning-based freehand 3D US has made significant advancements. It reconstructs volumes by estimating transformations between images without external tracking. However, image-only reconstruction poses difficulties in reducing cumulative drift and further improving reconstruction accuracy, particularly in scenarios involving complex motion trajectories. In this context, we propose an enhanced motion network (MoNetV2) to enhance the accuracy and generalizability of reconstruction under diverse scanning velocities and tactics. First, we propose a sensor-based temporal and multi-branch structure that fuses image and motion information from a velocity perspective to improve image-only reconstruction accuracy. Second, we devise an online multi-level consistency constraint that exploits the inherent consistency of scans to handle various scanning velocities and tactics. This constraint exploits both scan-level velocity consistency, path-level appearance consistency, and patch-level motion consistency to supervise inter-frame transformation estimation. Third, we distill an online multi-modal self-supervised strategy that leverages the correlation between network estimation and motion information to further reduce cumulative errors. Extensive experiments clearly demonstrate that MoNetV2 surpasses existing methods in both reconstruction quality and generalizability performance across three large datasets.
- Abstract(参考訳): 3次元超音波(US)は、解剖学的構造の空間的関係をソノグラフィーに提供することを目的としており、臨床診断において重要な役割を担っている。
近年、ディープラーニングベースのフリーハンド3D USは大きな進歩を遂げている。
外部追跡なしで画像間の変換を推定することでボリュームを再構築する。
しかし、画像のみの再構成は、特に複雑な運動軌跡を含むシナリオにおいて、累積ドリフトの低減と再現精度の向上に困難をもたらす。
本研究では,多様な走査速度と戦術の下での再構成の精度と一般化性を向上する運動ネットワーク(MoNetV2)を提案する。
まず、速度の観点から画像と動き情報を融合させ、画像のみの再構成精度を向上させるセンサベースの時間・マルチブランチ構造を提案する。
第二に、スキャンの固有の一貫性を利用して、様々なスキャン速度と戦術を扱う、オンラインのマルチレベル一貫性制約を考案する。
この制約は、フレーム間の変換推定を監督するために、スキャンレベルの速度一貫性、パスレベルの外観整合性、パッチレベルの動き整合性の両方を利用する。
第3に,ネットワーク推定と移動情報との相関を利用して,累積誤差の低減を図るオンラインマルチモーダル自己管理戦略を考案する。
大規模な実験により、MoNetV2は3つの大きなデータセットにわたる再構築品質と一般化性の両方のパフォーマンスの両方において、既存の手法をはるかに上回っていることが明らかになった。
関連論文リスト
- Enhancing Free-hand 3D Photoacoustic and Ultrasound Reconstruction using Deep Learning [3.8426872518410997]
本研究では,携帯型光音響・超音波(PAUS)画像における3次元再構成を支援するため,グローバルローカル自己保持モジュール(MoGLo-Net)を用いたモーションベース学習ネットワークを提案する。
MoGLo-Netは、連続した超音波画像内の完全に発達したスペックル領域や高発癌組織領域などの臨界領域を利用して、運動パラメータを正確に推定する。
論文 参考訳(メタデータ) (2025-02-05T11:59:23Z) - Fast3R: Towards 3D Reconstruction of 1000+ Images in One Forward Pass [68.78222900840132]
我々は,DUSt3Rに並列に複数のビューを処理することで,効率よくスケーラブルな3D再構成を実現する新しい多視点一般化であるFast3Rを提案する。
Fast3Rは最先端のパフォーマンスを示し、推論速度とエラーの蓄積が大幅に改善された。
論文 参考訳(メタデータ) (2025-01-23T18:59:55Z) - T-3DGS: Removing Transient Objects for 3D Scene Reconstruction [83.05271859398779]
映像シーケンスにおける過渡的オブジェクトは、3Dシーン再構成の品質を著しく低下させる可能性がある。
我々は,ガウススプラッティングを用いた3次元再構成において,過渡的障害を頑健に除去する新しいフレームワークT-3DGSを提案する。
論文 参考訳(メタデータ) (2024-11-29T07:45:24Z) - MVSBoost: An Efficient Point Cloud-based 3D Reconstruction [4.282795945742752]
拡張現実や仮想現実、医用画像、映画特殊効果など、様々な応用において、効率的で正確な3D再構成が不可欠である。
従来のMulti-View Stereo (MVS) システムはこれらのアプリケーションには基本的だが、暗黙の3次元シーンモデリングは複雑なトポロジや連続面を扱う新しい可能性をもたらした。
論文 参考訳(メタデータ) (2024-06-19T13:02:17Z) - CMAR-Net: Accurate Cross-Modal 3D SAR Reconstruction of Vehicle Targets with Sparse-Aspect Multi-Baseline Data [6.046251485192556]
マルチベースライン合成開口レーダ(SAR)3Dトモグラフィは重要なリモートセンシング技術である。
ディープラーニング(DL)は、強力なデータ駆動型表現機能と効率的な推論特性を通じて、この分野に革命をもたらす。
異種情報を融合させることにより3次元SAR画像の高精細化を実現する3D-SAR再構成ネットワーク(CMAR-Net)を提案する。
論文 参考訳(メタデータ) (2024-06-06T15:18:59Z) - 3D Vessel Reconstruction from Sparse-View Dynamic DSA Images via Vessel Probability Guided Attenuation Learning [79.60829508459753]
現在の商用デジタルサブトラクション・アンジオグラフィー(DSA)システムは通常、再構築を行うために数百のスキャンビューを要求する。
スパース・ビューDSA画像のダイナミックな血流と不十分な入力は,3次元血管再建作業において重要な課題である。
本稿では,時間に依存しない容器確率場を用いてこの問題を効果的に解くことを提案する。
論文 参考訳(メタデータ) (2024-05-17T11:23:33Z) - Motion-aware 3D Gaussian Splatting for Efficient Dynamic Scene Reconstruction [89.53963284958037]
動的シーン再構築のための新しい動き認識拡張フレームワークを提案する。
具体的には,まず3次元ガウス運動と画素レベルの流れの対応性を確立する。
より厳密な最適化問題を示す先行的な変形に基づくパラダイムに対して,過渡対応変形補助モジュールを提案する。
論文 参考訳(メタデータ) (2024-03-18T03:46:26Z) - Stable Optimization for Large Vision Model Based Deep Image Prior in
Cone-Beam CT Reconstruction [6.558735319783205]
LVM(Large Vision Model)は、最近医療画像のタスクにおいて大きな可能性を実証した。
Deep Image Prior(DIP)は、トレーニングされていないニューラルネットワークを効果的にガイドし、トレーニングデータなしで高品質のCBCT画像を生成する。
スパースビューCBCTのためのフォワードモデルフリーDIPモデルの安定最適化法を提案する。
論文 参考訳(メタデータ) (2022-03-23T15:16:29Z) - Limited-angle tomographic reconstruction of dense layered objects by
dynamical machine learning [68.9515120904028]
強い散乱準透明物体の有限角トモグラフィーは困難で、非常に不適切な問題である。
このような問題の状況を改善することにより、アーティファクトの削減には、事前の定期化が必要である。
我々は,新しい分割畳み込みゲート再帰ユニット(SC-GRU)をビルディングブロックとして,リカレントニューラルネットワーク(RNN)アーキテクチャを考案した。
論文 参考訳(メタデータ) (2020-07-21T11:48:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。