論文の概要: MLRecon: Robust Markerless Freehand 3D Ultrasound Reconstruction via Coarse-to-Fine Pose Estimation
- arxiv url: http://arxiv.org/abs/2603.00990v1
- Date: Sun, 01 Mar 2026 08:39:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.45059
- Title: MLRecon: Robust Markerless Freehand 3D Ultrasound Reconstruction via Coarse-to-Fine Pose Estimation
- Title(参考訳): MLRecon:粗孔間距離推定によるロバストマーカーレスフリーハンド3次元超音波再構成
- Authors: Yi Zhang, Puxun Tu, Kun Wang, Yulin Yan, Tao Ying, Xiaojun Chen,
- Abstract要約: MLReconはロバストなマーカーレス3DUS再構成フレームワークで、ドリフト耐性の6Dプローブのポーズトラッキングを提供する。
我々のパイプラインは、視覚誘導型発散検出器によって強化されたプローブの連続的なマーカーレス追跡を可能にする。
実験の結果、MLReconは競合するセンサレスやセンサアシストの手法よりも大幅に優れていた。
- 参考スコア(独自算出の注目度): 8.489758968497188
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Freehand 3D ultrasound (US) reconstruction promises volumetric imaging with the flexibility of standard 2D probes, yet existing tracking paradigms face a restrictive trilemma: marker-based systems demand prohibitive costs, inside-out methods require intrusive sensor attachment, and sensorless approaches suffer from severe cumulative drift. To overcome these limitations, we present MLRecon, a robust markerless 3D US reconstruction framework delivering drift-resilient 6D probe pose tracking using a single commodity RGB-D camera. Leveraging the generalization power of vision foundation models, our pipeline enables continuous markerless tracking of the probe, augmented by a vision-guided divergence detector that autonomously monitors tracking integrity and triggers failure recovery to ensure uninterrupted scanning. Crucially, we further propose a dual-stage pose refinement network that explicitly disentangles high-frequency jitter from low-frequency bias, effectively denoising the trajectory while maintaining the kinematic fidelity of operator maneuvers. Experiments demonstrate that MLRecon significantly outperforms competing sensorless and sensor-aided methods, achieving average position errors as low as 0.88 mm on complex trajectories and yielding high-quality 3D reconstructions with sub-millimeter mean surface accuracy. This establishes a new benchmark for low-cost, accessible volumetric US imaging in resource-limited clinical settings.
- Abstract(参考訳): フリーハンド3D超音波(US)は、標準的な2Dプローブの柔軟性でボリュームイメージングを約束するが、既存の追跡パラダイムは制約のあるトリレンマに直面している。
これらの制約を克服するため、MLReconは、単一のコモディティRGB-Dカメラを用いて、ドリフト耐性の6Dプローブのポーズトラッキングを提供する、堅牢なマーカーレス3DUS再構築フレームワークである。
ビジョンファウンデーションモデルの一般化力を生かして、我々のパイプラインは、トラッキングの完全性を自律的に監視し、故障回復をトリガーし、非破壊スキャンを確実にする視覚誘導分散検出器によって、プローブの連続的なマーカーレス追跡を可能にする。
さらに、低周波バイアスから高周波ジッタを明示的に切り離し、操作者の運動のキネマティックな忠実さを維持しつつ、軌道を効果的にデノベートする二段ポーズ改善ネットワークを提案する。
実験の結果、MLReconはセンサーレスやセンサアシストの手法よりも優れており、複雑な軌道上での平均位置誤差が0.88mmと低くなり、サブミリ平均表面精度で高品質な3D再構成が得られることがわかった。
これにより、リソース制限された臨床環境での低コストでアクセス可能な米国内画像の新たなベンチマークが確立される。
関連論文リスト
- UP-Fuse: Uncertainty-guided LiDAR-Camera Fusion for 3D Panoptic Segmentation [17.310791153991975]
本稿では,新しい不確実性を考慮した融合フレームワークUP-Fuseを紹介する。
生のLiDARデータはまずレンジビューに投影され、LiDARエンコーダによってエンコードされる。
カメラ機能は同時に抽出され、同じ共有空間に投影される。
論文 参考訳(メタデータ) (2026-02-22T21:34:29Z) - LeAD-M3D: Leveraging Asymmetric Distillation for Real-time Monocular 3D Detection [72.97402509843484]
LeAD-M3Dは最先端のモノクル3D検出器であり、余分なモダリティを伴わずに最先端の精度とリアルタイムの推論を実現する。
非対称増強脱ノイズ蒸留(A2D2)は、幾何学的知識をクリーンイメージの教師からミックスアップノイズの学生に伝達する。
3D-Aware Consistent Matching (CM3D) は、予測と地上の真理の割り当てを改善する。
CGI3D(Confidence-Gated 3D Inference)は、高額な3Dレグレッションをトップ信頼領域に制限することで、検出を加速する。
論文 参考訳(メタデータ) (2025-12-05T12:08:18Z) - ALICE-LRI: A General Method for Lossless Range Image Generation for Spinning LiDAR Sensors without Calibration Metadata [0.0]
3D LiDARセンサーは、リモートセンシングアプリケーションにおける自律ナビゲーション、環境モニタリング、高精度マッピングに不可欠である。
これらのセンサによって生成された巨大な点雲を効率的に処理するために、LiDARデータは角の位置と距離でポイントを整理する2Dレンジ画像に投影されることが多い。
製造者メタデータや校正ファイルを必要とせず、LiDAR点雲を回転させることにより、ロスレスレンジ画像生成を実現する、最初の一般センサ非依存方式であるALICE-LRIを提案する。
論文 参考訳(メタデータ) (2025-10-23T16:22:58Z) - Accelerating 3D Photoacoustic Computed Tomography with End-to-End Physics-Aware Neural Operators [74.65171736966131]
光音響計算トモグラフィ(PACT)は、光コントラストと超音波分解能を組み合わせることで、光拡散限界を超える深部像を実現する。
現在の実装では、高密度トランスデューサアレイと長い取得時間を必要とし、臨床翻訳を制限している。
本研究では,センサ計測からボリューム再構成まで,逆音響マッピングを直接学習する物理認識モデルであるPanoを紹介する。
論文 参考訳(メタデータ) (2025-09-11T23:12:55Z) - GRASPTrack: Geometry-Reasoned Association via Segmentation and Projection for Multi-Object Tracking [11.436294975354556]
GRASPTrackはモノクロ深度推定とインスタンスセグメンテーションを標準TBDパイプラインに統合する新しいMOTフレームワークである。
これらの3D点雲は、精密で堅牢なVoxel-based 3D Intersection-over-Unionを可能にするために酸化される。
論文 参考訳(メタデータ) (2025-08-11T15:56:21Z) - Enhancing Free-hand 3D Photoacoustic and Ultrasound Reconstruction using Deep Learning [3.8426872518410997]
本研究では,携帯型光音響・超音波(PAUS)画像における3次元再構成を支援するため,グローバルローカル自己保持モジュール(MoGLo-Net)を用いたモーションベース学習ネットワークを提案する。
MoGLo-Netは、連続した超音波画像内の完全に発達したスペックル領域や高発癌組織領域などの臨界領域を利用して、運動パラメータを正確に推定する。
論文 参考訳(メタデータ) (2025-02-05T11:59:23Z) - FreeSplatter: Pose-free Gaussian Splatting for Sparse-view 3D Reconstruction [69.63414788486578]
FreeSplatterはスケーラブルなフィードフォワードフレームワークで、キャリブレーションされていないスパースビュー画像から高品質な3Dガウシアンを生成する。
当社のアプローチでは,自己注意ブロックが情報交換を容易にする合理化トランスフォーマーアーキテクチャを採用している。
包括的データセットに基づいて,オブジェクト中心とシーンレベルの再構築のための2つの特殊な変種を開発する。
論文 参考訳(メタデータ) (2024-12-12T18:52:53Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - W-HMR: Monocular Human Mesh Recovery in World Space with Weak-Supervised Calibration [57.37135310143126]
モノクロ画像からの3次元運動回復のための従来の手法は、カメラ座標に依存するため、しばしば不足する。
W-HMRは、身体の歪み情報に基づいて「適切な」焦点長を予測する弱教師付き校正法である。
また,世界空間における可視的再構築のために,身体の向きを補正する OrientCorrect モジュールを提案する。
論文 参考訳(メタデータ) (2023-11-29T09:02:07Z) - The KFIoU Loss for Rotated Object Detection [115.334070064346]
本稿では,SkewIoU損失とトレンドレベルアライメントを両立できる近似的損失を考案する上で,有効な方法の1つとして論じる。
具体的には、対象をガウス分布としてモデル化し、SkewIoUのメカニズムを本質的に模倣するためにカルマンフィルタを採用する。
KFIoUと呼ばれる新たな損失は実装が容易で、正確なSkewIoUよりもうまく動作する。
論文 参考訳(メタデータ) (2022-01-29T10:54:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。