論文の概要: Tracking Everything in Robotic-Assisted Surgery
- arxiv url: http://arxiv.org/abs/2409.19821v1
- Date: Sun, 29 Sep 2024 23:06:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-05 17:29:56.116399
- Title: Tracking Everything in Robotic-Assisted Surgery
- Title(参考訳): ロボットによる外科手術におけるすべての追跡
- Authors: Bohan Zhan, Wang Zhao, Yi Fang, Bo Du, Francisco Vasconcelos, Danail Stoyanov, Daniel S. Elson, Baoru Huang,
- Abstract要約: そこで我々は,手術シナリオに対するベンチマーク追跡のための注釈付き手術追跡データセットを提案する。
我々は,このデータセット上で最先端(SOTA)のTAPベースのアルゴリズムを評価し,その限界を明らかにする。
本稿では,新たなトラッキング手法であるSurgMotionを提案し,その課題の解決とトラッキング性能の向上を図る。
- 参考スコア(独自算出の注目度): 39.62251870446397
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Accurate tracking of tissues and instruments in videos is crucial for Robotic-Assisted Minimally Invasive Surgery (RAMIS), as it enables the robot to comprehend the surgical scene with precise locations and interactions of tissues and tools. Traditional keypoint-based sparse tracking is limited by featured points, while flow-based dense two-view matching suffers from long-term drifts. Recently, the Tracking Any Point (TAP) algorithm was proposed to overcome these limitations and achieve dense accurate long-term tracking. However, its efficacy in surgical scenarios remains untested, largely due to the lack of a comprehensive surgical tracking dataset for evaluation. To address this gap, we introduce a new annotated surgical tracking dataset for benchmarking tracking methods for surgical scenarios, comprising real-world surgical videos with complex tissue and instrument motions. We extensively evaluate state-of-the-art (SOTA) TAP-based algorithms on this dataset and reveal their limitations in challenging surgical scenarios, including fast instrument motion, severe occlusions, and motion blur, etc. Furthermore, we propose a new tracking method, namely SurgMotion, to solve the challenges and further improve the tracking performance. Our proposed method outperforms most TAP-based algorithms in surgical instruments tracking, and especially demonstrates significant improvements over baselines in challenging medical videos.
- Abstract(参考訳): ビデオ内の組織や器具の正確な追跡は、ロボットによる最小侵襲手術(RAMIS)にとって重要である。
従来のキーポイントベースのスパーストラッキングは特徴点によって制限されるが、フローベースの密度の高い2ビューマッチングは長期的なドリフトに悩まされる。
近年,これらの制限を克服し,高精度な長期追跡を実現するため,TAPアルゴリズムが提案されている。
しかし、手術シナリオにおけるその有効性は、主に評価のための包括的な手術追跡データセットが欠如していることから、未検証のままである。
このギャップに対処するために,我々は,複雑な組織と楽器の動きを持つ実世界の手術映像を含む,手術シナリオの追跡方法のベンチマークを行うための,新しい注釈付き手術追跡データセットを導入した。
我々は,このデータセット上で最先端(SOTA)のTAPベースのアルゴリズムを広範囲に評価し,高速計器動作,重度閉塞,動きのぼけなど,困難な手術シナリオにおけるそれらの限界を明らかにする。
さらに,新たなトラッキング手法であるSurgMotionを提案し,その課題の解決とトラッキング性能の向上を図る。
提案手法は, 手術器具追跡におけるTAPベースのアルゴリズムよりも優れており, 特に, 挑戦的な医用ビデオのベースラインよりも顕著に改善されている。
関連論文リスト
- Automated Surgical Skill Assessment in Endoscopic Pituitary Surgery using Real-time Instrument Tracking on a High-fidelity Bench-top Phantom [9.41936397281689]
外科的スキルの改善は一般的に患者の成績の改善に関連しているが、評価は主観的であり、労働集約的である。
内視鏡下垂体手術の鼻相を模範として,シミュレートされた手術に焦点を当てた新しい公開データセットが導入された。
多層パーセプトロンは87%の精度で手術技量(初心者または専門家)を予測し、「可視時間測定のための全手術時間の割合」は高度な手術技量と相関した。
論文 参考訳(メタデータ) (2024-09-25T15:27:44Z) - OSSAR: Towards Open-Set Surgical Activity Recognition in Robot-assisted
Surgery [13.843251369739908]
本稿では,OSSAR(Open-Set Surgery Activity Recognition)フレームワークについて紹介する。
提案手法は超球面逆点戦略を利用して特徴空間における未知クラスと未知クラスとの区別を強化する。
我々の主張をサポートするために、公開JIGSAWSデータセットを利用したオープンセットの外科的活動ベンチマークを構築した。
論文 参考訳(メタデータ) (2024-02-10T16:23:12Z) - Neural LerPlane Representations for Fast 4D Reconstruction of Deformable
Tissues [52.886545681833596]
LerPlaneは単一視点環境下での手術シーンの高速かつ正確な再構築手法である。
LerPlaneは外科手術を4Dボリュームとして扱い、静的および動的フィールドの明示的な2D平面に分解する。
LerPlaneは静的フィールドを共有し、動的組織モデリングのワークロードを大幅に削減する。
論文 参考訳(メタデータ) (2023-05-31T14:38:35Z) - Robotic Navigation Autonomy for Subretinal Injection via Intelligent
Real-Time Virtual iOCT Volume Slicing [88.99939660183881]
網膜下注射のための自律型ロボットナビゲーションの枠組みを提案する。
提案手法は,機器のポーズ推定方法,ロボットとi OCTシステム間のオンライン登録,およびインジェクションターゲットへのナビゲーションに適した軌道計画から構成される。
ブタ前眼の精度と再現性について実験を行った。
論文 参考訳(メタデータ) (2023-01-17T21:41:21Z) - A comprehensive survey on recent deep learning-based methods applied to
surgical data [2.1506382989223782]
リアルタイムシステムは、手術中のシーンを明確に理解し、誤計算を避けることによって、外科医がツールをナビゲートし追跡するのに役立つ。
最近の機械学習によるアプローチには、手術ツールのローカライゼーション、セグメンテーション、トラッキング、三次元シーン認識などがある。
本稿では,これらの手法の現在のギャップと方向性について述べるとともに,これらの手法の臨床的統合の背景に合理的な情報を提供する。
論文 参考訳(メタデータ) (2022-09-03T14:25:39Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z) - Occlusion-robust Visual Markerless Bone Tracking for Computer-Assisted
Orthopaedic Surgery [41.681134859412246]
閉塞に対して頑健なRGB-Dセンサを用いたマーカーレストラッキング手法を提案する。
高品質な商用RGB-Dカメラを用いて,モデル膝の1-2デグレスと2-4mmの精度を実現する。
論文 参考訳(メタデータ) (2021-08-24T09:49:08Z) - Searching for Efficient Architecture for Instrument Segmentation in
Robotic Surgery [58.63306322525082]
ほとんどのアプリケーションは、高解像度の外科画像の正確なリアルタイムセグメンテーションに依存している。
我々は,高解像度画像のリアルタイム推論を行うために調整された,軽量で高効率なディープ残差アーキテクチャを設計する。
論文 参考訳(メタデータ) (2020-07-08T21:38:29Z) - Robust Medical Instrument Segmentation Challenge 2019 [56.148440125599905]
腹腔鏡装置の術中追跡は、しばしばコンピュータとロボットによる介入の必要条件である。
本研究の課題は,30の手術症例から取得した10,040枚の注釈画像からなる外科的データセットに基づいていた。
結果は、初期仮説、すなわち、アルゴリズムの性能がドメインギャップの増大とともに低下することを確認する。
論文 参考訳(メタデータ) (2020-03-23T14:35:08Z) - SuPer Deep: A Surgical Perception Framework for Robotic Tissue
Manipulation using Deep Learning for Feature Extraction [25.865648975312407]
深層学習を外科的知覚に活用する。
我々は,効率的な特徴抽出が可能なディープニューラルネットワークを組織再構成と機器のポーズ推定プロセスに統合した。
本フレームワークは, 深層学習を特徴抽出に用いることにより, 手術環境における最先端の追跡性能を実現する。
論文 参考訳(メタデータ) (2020-03-07T00:08:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。