論文の概要: Motion-Guided Dual-Camera Tracker for Low-Cost Skill Evaluation of Gastric Endoscopy
- arxiv url: http://arxiv.org/abs/2403.05146v2
- Date: Sun, 21 Apr 2024 02:44:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-23 23:24:19.070366
- Title: Motion-Guided Dual-Camera Tracker for Low-Cost Skill Evaluation of Gastric Endoscopy
- Title(参考訳): 胃内視鏡の低コスト技術評価のためのモーションガイドデュアルカメラトラッカー
- Authors: Yuelin Zhang, Wanquan Yan, Kim Yan, Chun Ping Lam, Yufu Qiu, Pengyu Zheng, Raymond Shing-Yan Tang, Shing Shin Cheng,
- Abstract要約: 運動誘導型デュアルカメラトラッカーを提案し, 内視鏡技術評価のためのメカニカルシミュレータ内での信頼性の高い先端位置フィードバックを提供する。
提案するトラッカーは,デュアルカメラ上でのロバストかつ一貫したトラッキングによりSOTA性能を実現する。
- 参考スコア(独自算出の注目度): 3.7742691394718078
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gastric simulators with objective educational feedback have been proven useful for endoscopy training. Existing electronic simulators with feedback are however not commonly adopted due to their high cost. In this work, a motion-guided dual-camera tracker is proposed to provide reliable endoscope tip position feedback at a low cost inside a mechanical simulator for endoscopy skill evaluation, tackling several unique challenges. To address the issue of significant appearance variation of the endoscope tip while keeping dual-camera tracking consistency, the cross-camera mutual template strategy (CMT) is proposed to introduce dynamic transient mutual templates to dual-camera tracking. To alleviate disturbance from large occlusion and distortion by the light source from the endoscope tip, the Mamba-based motion-guided prediction head (MMH) is presented to aggregate historical motion with visual tracking. It is the first application of Mamba for object tracking. The proposed tracker was evaluated on datasets captured by low-cost camera pairs during endoscopy procedures performed inside the mechanical simulator. The tracker achieves SOTA performance with robust and consistent tracking on dual cameras. Further downstream evaluation proves that the 3D tip position determined by the proposed tracker enables reliable skill differentiation. The code and dataset are available at https://github.com/PieceZhang/MotionDCTrack
- Abstract(参考訳): 客観的な教育的フィードバックを持つ胃シミュレータは内視鏡訓練に有用であることが証明されている。
しかしながら、フィードバックを持つ既存の電子シミュレータは、そのコストが高いため一般的には採用されない。
本研究は, 内視鏡技術評価のための機械シミュレータにおいて, 信頼性の高い内視鏡先端位置フィードバックを低コストで提供するために, 動作誘導型デュアルカメラトラッカーを提案するものである。
デュアルカメラトラッキングの整合性を保ちながら内視鏡先端の顕著な外観変化に対処するため,デュアルカメラトラッキングに動的過渡的相互テンプレートを導入するために,クロスカメラ相互テンプレート戦略(CMT)を提案する。
内視鏡先端からの光源による大きな閉塞や歪みによる乱れを軽減するため、マンバをベースとした動き誘導予測ヘッド(MMH)を視覚的トラッキングによる歴史的動きを集約する。
これは、オブジェクト追跡のためのMambaの最初の応用である。
提案したトラッカーは, 機械シミュレータ内での内視鏡観察において, 低コストのカメラペアが取得したデータセットに基づいて評価した。
トラッカーは、デュアルカメラ上で頑健で一貫したトラッキングでSOTA性能を達成する。
さらに下流評価により,提案したトラッカーによって決定される3次元先端位置が,信頼性の高い技術分化を実現することが証明された。
コードとデータセットはhttps://github.com/PieceZhang/MotionDCTrackで公開されている。
関連論文リスト
- ConTrack: Contextual Transformer for Device Tracking in X-ray [13.788670026481324]
ConTrackはトランスフォーマーベースのネットワークで、空間的および時間的コンテキスト情報の両方を使って正確なデバイス検出と追跡を行う。
本手法は,最先端追跡モデルと比較して,検出と追跡の精度が45%以上向上する。
論文 参考訳(メタデータ) (2023-07-14T14:20:09Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - An Effective Motion-Centric Paradigm for 3D Single Object Tracking in
Point Clouds [50.19288542498838]
LiDARポイントクラウド(LiDAR SOT)における3Dシングルオブジェクトトラッキングは、自動運転において重要な役割を果たす。
現在のアプローチはすべて、外観マッチングに基づくシームズパラダイムに従っている。
我々は新たな視点からLiDAR SOTを扱うための動き中心のパラダイムを導入する。
論文 参考訳(メタデータ) (2023-03-21T17:28:44Z) - QuestSim: Human Motion Tracking from Sparse Sensors with Simulated
Avatars [80.05743236282564]
人間の身体の動きのリアルタイム追跡は、AR/VRにおける没入感のある体験に不可欠である。
本稿では,HMDと2つのコントローラから疎信号を取り出す強化学習フレームワークを提案する。
一つのポリシーは、多様な移動スタイル、異なる体の大きさ、新しい環境に対して堅牢であることを示す。
論文 参考訳(メタデータ) (2022-09-20T00:25:54Z) - CAMO-MOT: Combined Appearance-Motion Optimization for 3D Multi-Object
Tracking with Camera-LiDAR Fusion [34.42289908350286]
3D Multi-object Track (MOT) は、連続的な動的検出時の一貫性を保証する。
LiDAR法で物体の不規則な動きを正確に追跡することは困難である。
複合外観運動最適化(CAMO-MOT)に基づく新しいカメラ-LiDAR融合3DMOTフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-06T14:41:38Z) - A Lightweight and Detector-free 3D Single Object Tracker on Point Clouds [50.54083964183614]
生のLiDARスキャンにおける物体の点雲は、通常スパースで不完全であるため、正確な目標固有検出を行うのは簡単ではない。
DMTは、複雑な3D検出器の使用を完全に除去する3Dトラッキングネットワークである。
論文 参考訳(メタデータ) (2022-03-08T17:49:07Z) - Unsupervised Landmark Detection Based Spatiotemporal Motion Estimation
for 4D Dynamic Medical Images [16.759486905827433]
2段階からなるDense-Sparse-Dense (DSD) の新たな動き推定フレームワークを提案する。
第1段階では, 対象臓器解剖学的トポロジーを表すために, 粗いランドマークを抽出するために, 生の高密度画像を処理する。
第2段階では、異なる時間点の2つの画像の抽出されたスパースランドマークからスパース運動変位を導出する。
論文 参考訳(メタデータ) (2021-09-30T02:06:02Z) - Occlusion-robust Visual Markerless Bone Tracking for Computer-Assisted
Orthopaedic Surgery [41.681134859412246]
閉塞に対して頑健なRGB-Dセンサを用いたマーカーレストラッキング手法を提案する。
高品質な商用RGB-Dカメラを用いて,モデル膝の1-2デグレスと2-4mmの精度を実現する。
論文 参考訳(メタデータ) (2021-08-24T09:49:08Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - Human Leg Motion Tracking by Fusing IMUs and RGB Camera Data Using
Extended Kalman Filter [4.189643331553922]
IMUベースのシステムとMarkerベースのモーショントラッキングシステムは、実装コストが低く軽量であるため、ムーブメントを追跡する最も一般的な方法である。
本稿では、カメラマーカーシステムデータと融合したIMUセンサデータを用いて、四元数に基づく拡張カルマンフィルタを用いて、人間の足のセグメントの動きを復元する手法を提案する。
論文 参考訳(メタデータ) (2020-11-01T17:54:53Z) - A Novel Approach for Correcting Multiple Discrete Rigid In-Plane Motions
Artefacts in MRI Scans [63.28835187934139]
本稿では,2つの入力枝を持つディープニューラルネットワークを用いた動きアーチファクトの除去手法を提案する。
提案法は患者の多動運動によって生成された人工物に応用できる。
論文 参考訳(メタデータ) (2020-06-24T15:25:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。