論文の概要: Motion-Guided Dual-Camera Tracker for Low-Cost Skill Evaluation of
Gastric Endoscopy
- arxiv url: http://arxiv.org/abs/2403.05146v1
- Date: Fri, 8 Mar 2024 08:31:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 20:26:22.904981
- Title: Motion-Guided Dual-Camera Tracker for Low-Cost Skill Evaluation of
Gastric Endoscopy
- Title(参考訳): 胃内視鏡の低コスト技術評価のためのモーションガイドデュアルカメラトラッカー
- Authors: Yuelin Zhang, Wanquan Yan, Kim Yan, Chun Ping Lam, Yufu Qiu, Pengyu
Zheng, Raymond Shing-Yan Tang, Shing Shin Cheng
- Abstract要約: 動作誘導型デュアルカメラトラッカーを提案し, 内視鏡技術評価のためのメカニカルシミュレータ内で, 信頼性の高い先端位置フィードバックを低コストで提供する。
内視鏡先端の顕著な外観変化に対処するため, クロスカメラ相互テンプレート戦略を提案する。
提案するトラッカーは,デュアルカメラ上でのロバストかつ一貫したトラッキングによりSOTA性能を実現する。
- 参考スコア(独自算出の注目度): 3.936827689390717
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gastric simulators with objective educational feedback have been proven
useful for endoscopy training. Existing electronic simulators with feedback are
however not commonly adopted due to their high cost. In this work, a
motion-guided dual-camera tracker is proposed to provide reliable endoscope tip
position feedback at a low cost inside a mechanical simulator for endoscopy
skill evaluation, tackling several unique challenges. To address the issue of
significant appearance variation of the endoscope tip while keeping dual-camera
tracking consistency, the cross-camera mutual template strategy (CMT) is
proposed to introduce dynamic transient mutual templates to dual-camera
tracking. To alleviate disturbance from large occlusion and distortion by the
light source from the endoscope tip, the Mamba-based motion-guided prediction
head (MMH) is presented to aggregate visual tracking with historical motion
information modeled by the state space model. The proposed tracker was
evaluated on datasets captured by low-cost camera pairs during endoscopy
procedures performed inside the mechanical simulator. The tracker achieves SOTA
performance with robust and consistent tracking on dual cameras. Further
downstream evaluation proves that the 3D tip position determined by the
proposed tracker enables reliable skill differentiation. The code and dataset
will be released upon acceptance.
- Abstract(参考訳): 客観的な教育的フィードバックを持つ胃シミュレータは内視鏡訓練に有用であることが証明されている。
しかし、コストが高いため、既存の電子シミュレータは一般的には採用されていない。
本研究は, 内視鏡技術評価のための機械シミュレータ内で, 信頼性の高い内視鏡先端位置フィードバックを安価に提供するために, モーションガイド付きデュアルカメラトラッカを提案する。
デュアルカメラトラッキングの整合性を保ちながら内視鏡先端の顕著な外観変化に対処するため,デュアルカメラトラッキングに動的過渡的相互テンプレートを導入するために,クロスカメラ相互テンプレート戦略(CMT)を提案する。
内視鏡先端からの光源による大きな閉塞や歪みによる乱れを軽減するため、状態空間モデルでモデル化された歴史的動き情報を用いて、マンバベースの動き誘導予測ヘッド(MMH)を集約する。
提案したトラッカーは, 機械シミュレータ内での内視鏡観察において, 低コストカメラペアで得られたデータセットに基づいて評価した。
トラッカーはデュアルカメラ上で頑健で一貫したトラッキングでSOTA性能を達成する。
さらに下流評価により,提案したトラッカーによって決定される3次元先端位置が,信頼性の高い技術分化を可能にすることを示す。
コードとデータセットは受理時にリリースされる。
関連論文リスト
- ConTrack: Contextual Transformer for Device Tracking in X-ray [13.788670026481324]
ConTrackはトランスフォーマーベースのネットワークで、空間的および時間的コンテキスト情報の両方を使って正確なデバイス検出と追跡を行う。
本手法は,最先端追跡モデルと比較して,検出と追跡の精度が45%以上向上する。
論文 参考訳(メタデータ) (2023-07-14T14:20:09Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - An Effective Motion-Centric Paradigm for 3D Single Object Tracking in
Point Clouds [50.19288542498838]
LiDARポイントクラウド(LiDAR SOT)における3Dシングルオブジェクトトラッキングは、自動運転において重要な役割を果たす。
現在のアプローチはすべて、外観マッチングに基づくシームズパラダイムに従っている。
我々は新たな視点からLiDAR SOTを扱うための動き中心のパラダイムを導入する。
論文 参考訳(メタデータ) (2023-03-21T17:28:44Z) - QuestSim: Human Motion Tracking from Sparse Sensors with Simulated
Avatars [80.05743236282564]
人間の身体の動きのリアルタイム追跡は、AR/VRにおける没入感のある体験に不可欠である。
本稿では,HMDと2つのコントローラから疎信号を取り出す強化学習フレームワークを提案する。
一つのポリシーは、多様な移動スタイル、異なる体の大きさ、新しい環境に対して堅牢であることを示す。
論文 参考訳(メタデータ) (2022-09-20T00:25:54Z) - CAMO-MOT: Combined Appearance-Motion Optimization for 3D Multi-Object
Tracking with Camera-LiDAR Fusion [34.42289908350286]
3D Multi-object Track (MOT) は、連続的な動的検出時の一貫性を保証する。
LiDAR法で物体の不規則な動きを正確に追跡することは困難である。
複合外観運動最適化(CAMO-MOT)に基づく新しいカメラ-LiDAR融合3DMOTフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-06T14:41:38Z) - A Lightweight and Detector-free 3D Single Object Tracker on Point Clouds [50.54083964183614]
生のLiDARスキャンにおける物体の点雲は、通常スパースで不完全であるため、正確な目標固有検出を行うのは簡単ではない。
DMTは、複雑な3D検出器の使用を完全に除去する3Dトラッキングネットワークである。
論文 参考訳(メタデータ) (2022-03-08T17:49:07Z) - Unsupervised Landmark Detection Based Spatiotemporal Motion Estimation
for 4D Dynamic Medical Images [16.759486905827433]
2段階からなるDense-Sparse-Dense (DSD) の新たな動き推定フレームワークを提案する。
第1段階では, 対象臓器解剖学的トポロジーを表すために, 粗いランドマークを抽出するために, 生の高密度画像を処理する。
第2段階では、異なる時間点の2つの画像の抽出されたスパースランドマークからスパース運動変位を導出する。
論文 参考訳(メタデータ) (2021-09-30T02:06:02Z) - Occlusion-robust Visual Markerless Bone Tracking for Computer-Assisted
Orthopaedic Surgery [41.681134859412246]
閉塞に対して頑健なRGB-Dセンサを用いたマーカーレストラッキング手法を提案する。
高品質な商用RGB-Dカメラを用いて,モデル膝の1-2デグレスと2-4mmの精度を実現する。
論文 参考訳(メタデータ) (2021-08-24T09:49:08Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - Human Leg Motion Tracking by Fusing IMUs and RGB Camera Data Using
Extended Kalman Filter [4.189643331553922]
IMUベースのシステムとMarkerベースのモーショントラッキングシステムは、実装コストが低く軽量であるため、ムーブメントを追跡する最も一般的な方法である。
本稿では、カメラマーカーシステムデータと融合したIMUセンサデータを用いて、四元数に基づく拡張カルマンフィルタを用いて、人間の足のセグメントの動きを復元する手法を提案する。
論文 参考訳(メタデータ) (2020-11-01T17:54:53Z) - A Novel Approach for Correcting Multiple Discrete Rigid In-Plane Motions
Artefacts in MRI Scans [63.28835187934139]
本稿では,2つの入力枝を持つディープニューラルネットワークを用いた動きアーチファクトの除去手法を提案する。
提案法は患者の多動運動によって生成された人工物に応用できる。
論文 参考訳(メタデータ) (2020-06-24T15:25:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。