論文の概要: Motion-Guided Dual-Camera Tracker for Low-Cost Skill Evaluation of
Gastric Endoscopy
- arxiv url: http://arxiv.org/abs/2403.05146v1
- Date: Fri, 8 Mar 2024 08:31:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 20:26:22.904981
- Title: Motion-Guided Dual-Camera Tracker for Low-Cost Skill Evaluation of
Gastric Endoscopy
- Title(参考訳): 胃内視鏡の低コスト技術評価のためのモーションガイドデュアルカメラトラッカー
- Authors: Yuelin Zhang, Wanquan Yan, Kim Yan, Chun Ping Lam, Yufu Qiu, Pengyu
Zheng, Raymond Shing-Yan Tang, Shing Shin Cheng
- Abstract要約: 動作誘導型デュアルカメラトラッカーを提案し, 内視鏡技術評価のためのメカニカルシミュレータ内で, 信頼性の高い先端位置フィードバックを低コストで提供する。
内視鏡先端の顕著な外観変化に対処するため, クロスカメラ相互テンプレート戦略を提案する。
提案するトラッカーは,デュアルカメラ上でのロバストかつ一貫したトラッキングによりSOTA性能を実現する。
- 参考スコア(独自算出の注目度): 3.936827689390717
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gastric simulators with objective educational feedback have been proven
useful for endoscopy training. Existing electronic simulators with feedback are
however not commonly adopted due to their high cost. In this work, a
motion-guided dual-camera tracker is proposed to provide reliable endoscope tip
position feedback at a low cost inside a mechanical simulator for endoscopy
skill evaluation, tackling several unique challenges. To address the issue of
significant appearance variation of the endoscope tip while keeping dual-camera
tracking consistency, the cross-camera mutual template strategy (CMT) is
proposed to introduce dynamic transient mutual templates to dual-camera
tracking. To alleviate disturbance from large occlusion and distortion by the
light source from the endoscope tip, the Mamba-based motion-guided prediction
head (MMH) is presented to aggregate visual tracking with historical motion
information modeled by the state space model. The proposed tracker was
evaluated on datasets captured by low-cost camera pairs during endoscopy
procedures performed inside the mechanical simulator. The tracker achieves SOTA
performance with robust and consistent tracking on dual cameras. Further
downstream evaluation proves that the 3D tip position determined by the
proposed tracker enables reliable skill differentiation. The code and dataset
will be released upon acceptance.
- Abstract(参考訳): 客観的な教育的フィードバックを持つ胃シミュレータは内視鏡訓練に有用であることが証明されている。
しかし、コストが高いため、既存の電子シミュレータは一般的には採用されていない。
本研究は, 内視鏡技術評価のための機械シミュレータ内で, 信頼性の高い内視鏡先端位置フィードバックを安価に提供するために, モーションガイド付きデュアルカメラトラッカを提案する。
デュアルカメラトラッキングの整合性を保ちながら内視鏡先端の顕著な外観変化に対処するため,デュアルカメラトラッキングに動的過渡的相互テンプレートを導入するために,クロスカメラ相互テンプレート戦略(CMT)を提案する。
内視鏡先端からの光源による大きな閉塞や歪みによる乱れを軽減するため、状態空間モデルでモデル化された歴史的動き情報を用いて、マンバベースの動き誘導予測ヘッド(MMH)を集約する。
提案したトラッカーは, 機械シミュレータ内での内視鏡観察において, 低コストカメラペアで得られたデータセットに基づいて評価した。
トラッカーはデュアルカメラ上で頑健で一貫したトラッキングでSOTA性能を達成する。
さらに下流評価により,提案したトラッカーによって決定される3次元先端位置が,信頼性の高い技術分化を可能にすることを示す。
コードとデータセットは受理時にリリースされる。
関連論文リスト
- No Identity, no problem: Motion through detection for people tracking [48.708733485434394]
本稿では,検出のみの監視を行いながら,動きの手がかりを利用する手法を提案する。
提案アルゴリズムは,2つの画像間の2次元運動推定とともに,2つの異なるタイミングで熱マップを検出する。
提案手法は,MOT17およびWILDTRACKデータセット上でのマルチターゲット・シングルビュー・マルチターゲット・トラッキングに対して,最先端の結果を提供する。
論文 参考訳(メタデータ) (2024-11-25T15:13:17Z) - SLAM assisted 3D tracking system for laparoscopic surgery [22.36252790404779]
本研究は,登録後タスクのためのリアルタイムモノクル3D追跡アルゴリズムを提案する。
in-vivoおよびex-vivoテストによる実験では、提案された3Dトラッキングシステムが堅牢な3Dトラッキングを提供することが示された。
論文 参考訳(メタデータ) (2024-09-18T04:00:54Z) - MotionTTT: 2D Test-Time-Training Motion Estimation for 3D Motion Corrected MRI [24.048132427816704]
高精度な動き推定のための深層学習に基づくテスト時間学習法を提案する。
本手法は, 単純な信号とニューラルネットワークモデルに対して, 動作パラメータを確実に再構成できることを示す。
論文 参考訳(メタデータ) (2024-09-14T08:51:33Z) - Motion-aware 3D Gaussian Splatting for Efficient Dynamic Scene Reconstruction [89.53963284958037]
動的シーン再構築のための新しい動き認識拡張フレームワークを提案する。
具体的には,まず3次元ガウス運動と画素レベルの流れの対応性を確立する。
より厳密な最適化問題を示す先行的な変形に基づくパラダイムに対して,過渡対応変形補助モジュールを提案する。
論文 参考訳(メタデータ) (2024-03-18T03:46:26Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - An Effective Motion-Centric Paradigm for 3D Single Object Tracking in
Point Clouds [50.19288542498838]
LiDARポイントクラウド(LiDAR SOT)における3Dシングルオブジェクトトラッキングは、自動運転において重要な役割を果たす。
現在のアプローチはすべて、外観マッチングに基づくシームズパラダイムに従っている。
我々は新たな視点からLiDAR SOTを扱うための動き中心のパラダイムを導入する。
論文 参考訳(メタデータ) (2023-03-21T17:28:44Z) - QuestSim: Human Motion Tracking from Sparse Sensors with Simulated
Avatars [80.05743236282564]
人間の身体の動きのリアルタイム追跡は、AR/VRにおける没入感のある体験に不可欠である。
本稿では,HMDと2つのコントローラから疎信号を取り出す強化学習フレームワークを提案する。
一つのポリシーは、多様な移動スタイル、異なる体の大きさ、新しい環境に対して堅牢であることを示す。
論文 参考訳(メタデータ) (2022-09-20T00:25:54Z) - Unsupervised Landmark Detection Based Spatiotemporal Motion Estimation
for 4D Dynamic Medical Images [16.759486905827433]
2段階からなるDense-Sparse-Dense (DSD) の新たな動き推定フレームワークを提案する。
第1段階では, 対象臓器解剖学的トポロジーを表すために, 粗いランドマークを抽出するために, 生の高密度画像を処理する。
第2段階では、異なる時間点の2つの画像の抽出されたスパースランドマークからスパース運動変位を導出する。
論文 参考訳(メタデータ) (2021-09-30T02:06:02Z) - Learning to Segment Rigid Motions from Two Frames [72.14906744113125]
本研究では, 運動場から独立物体の動きを復元する幾何学的解析により, モジュラーネットワークを提案する。
2つの連続フレームを入力とし、背景のセグメンテーションマスクと複数の剛体移動オブジェクトを予測し、3次元の剛体変換によってパラメータ化する。
本手法はkittiおよびsintelにおける剛体運動セグメンテーションの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-11T04:20:30Z) - Human Leg Motion Tracking by Fusing IMUs and RGB Camera Data Using
Extended Kalman Filter [4.189643331553922]
IMUベースのシステムとMarkerベースのモーショントラッキングシステムは、実装コストが低く軽量であるため、ムーブメントを追跡する最も一般的な方法である。
本稿では、カメラマーカーシステムデータと融合したIMUセンサデータを用いて、四元数に基づく拡張カルマンフィルタを用いて、人間の足のセグメントの動きを復元する手法を提案する。
論文 参考訳(メタデータ) (2020-11-01T17:54:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。