論文の概要: Motion-Guided Dual-Camera Tracker for Endoscope Tracking and Motion Analysis in a Mechanical Gastric Simulator
- arxiv url: http://arxiv.org/abs/2403.05146v3
- Date: Tue, 17 Sep 2024 02:53:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-18 22:31:03.646318
- Title: Motion-Guided Dual-Camera Tracker for Endoscope Tracking and Motion Analysis in a Mechanical Gastric Simulator
- Title(参考訳): メカニカル・胃シミュレータにおける内視鏡追尾・動作解析のためのモーションガイドデュアルカメラ・トラッカー
- Authors: Yuelin Zhang, Kim Yan, Chun Ping Lam, Chengyu Fang, Wenxuan Xie, Yufu Qiu, Raymond Shing-Yan Tang, Shing Shin Cheng,
- Abstract要約: 運動誘導型デュアルカメラ・ビジョン・トラッカーは内視鏡先端の3次元位置の頑健かつ正確な追跡を実現するために提案される。
提案したトラッカーは、最先端のビジョントラッカーに対して優れた性能を示し、平均誤差と最大誤差において、第2ベット法に対して42%と72%の改善を達成している。
- 参考スコア(独自算出の注目度): 5.073179848641095
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Flexible endoscope motion tracking and analysis in mechanical simulators have proven useful for endoscopy training. Common motion tracking methods based on electromagnetic tracker are however limited by their high cost and material susceptibility. In this work, the motion-guided dual-camera vision tracker is proposed to provide robust and accurate tracking of the endoscope tip's 3D position. The tracker addresses several unique challenges of tracking flexible endoscope tip inside a dynamic, life-sized mechanical simulator. To address the appearance variation and keep dual-camera tracking consistency, the cross-camera mutual template strategy (CMT) is proposed by introducing dynamic transient mutual templates. To alleviate large occlusion and light-induced distortion, the Mamba-based motion-guided prediction head (MMH) is presented to aggregate historical motion with visual tracking. The proposed tracker achieves superior performance against state-of-the-art vision trackers, achieving 42% and 72% improvements against the second-best method in average error and maximum error. Further motion analysis involving novice and expert endoscopists also shows that the tip 3D motion provided by the proposed tracker enables more reliable motion analysis and more substantial differentiation between different expertise levels, compared with other trackers.
- Abstract(参考訳): メカニカルシミュレータにおけるフレキシブルな内視鏡運動追跡と解析は内視鏡トレーニングに有用であることが証明されている。
しかしながら、電磁トラッカーに基づく一般的なモーショントラッキング手法は、そのコストと物質感受性によって制限されている。
本研究は、内視鏡先端の3D位置のロバストかつ高精度な追跡を実現するために、モーションガイド付きデュアルカメラ・ビジョン・トラッカーを提案する。
このトラッカーは、ダイナミックなライフサイズのメカニカルシミュレータの中で、フレキシブルな内視鏡の先端を追跡するという、いくつかのユニークな課題に対処する。
外観変化に対処し、デュアルカメラトラッキング一貫性を維持するために、動的過渡的相互テンプレートを導入することで、クロスカメラ相互テンプレート戦略(CMT)を提案する。
マンバをベースとした動き誘導予測ヘッド(MMH)は,大きな閉塞と光誘起歪みを緩和し,視覚的トラッキングによる歴史的動きを集約する。
提案したトラッカーは、最先端のビジョントラッカーに対して優れた性能を示し、平均誤差と最大誤差において、第2ベット法に対して42%と72%の改善を達成している。
初心者および専門家の内科医を含むさらなる運動分析により、提案したトラッカーによって提供される先端3次元運動は、他のトラッカーと比較して、より信頼性が高く、異なる専門的レベルのより実質的な分化を可能にする。
関連論文リスト
- No Identity, no problem: Motion through detection for people tracking [48.708733485434394]
本稿では,検出のみの監視を行いながら,動きの手がかりを利用する手法を提案する。
提案アルゴリズムは,2つの画像間の2次元運動推定とともに,2つの異なるタイミングで熱マップを検出する。
提案手法は,MOT17およびWILDTRACKデータセット上でのマルチターゲット・シングルビュー・マルチターゲット・トラッキングに対して,最先端の結果を提供する。
論文 参考訳(メタデータ) (2024-11-25T15:13:17Z) - SLAM assisted 3D tracking system for laparoscopic surgery [22.36252790404779]
本研究は,登録後タスクのためのリアルタイムモノクル3D追跡アルゴリズムを提案する。
in-vivoおよびex-vivoテストによる実験では、提案された3Dトラッキングシステムが堅牢な3Dトラッキングを提供することが示された。
論文 参考訳(メタデータ) (2024-09-18T04:00:54Z) - MotionTTT: 2D Test-Time-Training Motion Estimation for 3D Motion Corrected MRI [24.048132427816704]
高精度な動き推定のための深層学習に基づくテスト時間学習法を提案する。
本手法は, 単純な信号とニューラルネットワークモデルに対して, 動作パラメータを確実に再構成できることを示す。
論文 参考訳(メタデータ) (2024-09-14T08:51:33Z) - Motion-aware 3D Gaussian Splatting for Efficient Dynamic Scene Reconstruction [89.53963284958037]
動的シーン再構築のための新しい動き認識拡張フレームワークを提案する。
具体的には,まず3次元ガウス運動と画素レベルの流れの対応性を確立する。
より厳密な最適化問題を示す先行的な変形に基づくパラダイムに対して,過渡対応変形補助モジュールを提案する。
論文 参考訳(メタデータ) (2024-03-18T03:46:26Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - An Effective Motion-Centric Paradigm for 3D Single Object Tracking in
Point Clouds [50.19288542498838]
LiDARポイントクラウド(LiDAR SOT)における3Dシングルオブジェクトトラッキングは、自動運転において重要な役割を果たす。
現在のアプローチはすべて、外観マッチングに基づくシームズパラダイムに従っている。
我々は新たな視点からLiDAR SOTを扱うための動き中心のパラダイムを導入する。
論文 参考訳(メタデータ) (2023-03-21T17:28:44Z) - QuestSim: Human Motion Tracking from Sparse Sensors with Simulated
Avatars [80.05743236282564]
人間の身体の動きのリアルタイム追跡は、AR/VRにおける没入感のある体験に不可欠である。
本稿では,HMDと2つのコントローラから疎信号を取り出す強化学習フレームワークを提案する。
一つのポリシーは、多様な移動スタイル、異なる体の大きさ、新しい環境に対して堅牢であることを示す。
論文 参考訳(メタデータ) (2022-09-20T00:25:54Z) - Unsupervised Landmark Detection Based Spatiotemporal Motion Estimation
for 4D Dynamic Medical Images [16.759486905827433]
2段階からなるDense-Sparse-Dense (DSD) の新たな動き推定フレームワークを提案する。
第1段階では, 対象臓器解剖学的トポロジーを表すために, 粗いランドマークを抽出するために, 生の高密度画像を処理する。
第2段階では、異なる時間点の2つの画像の抽出されたスパースランドマークからスパース運動変位を導出する。
論文 参考訳(メタデータ) (2021-09-30T02:06:02Z) - Learning to Segment Rigid Motions from Two Frames [72.14906744113125]
本研究では, 運動場から独立物体の動きを復元する幾何学的解析により, モジュラーネットワークを提案する。
2つの連続フレームを入力とし、背景のセグメンテーションマスクと複数の剛体移動オブジェクトを予測し、3次元の剛体変換によってパラメータ化する。
本手法はkittiおよびsintelにおける剛体運動セグメンテーションの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-11T04:20:30Z) - Human Leg Motion Tracking by Fusing IMUs and RGB Camera Data Using
Extended Kalman Filter [4.189643331553922]
IMUベースのシステムとMarkerベースのモーショントラッキングシステムは、実装コストが低く軽量であるため、ムーブメントを追跡する最も一般的な方法である。
本稿では、カメラマーカーシステムデータと融合したIMUセンサデータを用いて、四元数に基づく拡張カルマンフィルタを用いて、人間の足のセグメントの動きを復元する手法を提案する。
論文 参考訳(メタデータ) (2020-11-01T17:54:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。