論文の概要: SurgPose: a Dataset for Articulated Robotic Surgical Tool Pose Estimation and Tracking
- arxiv url: http://arxiv.org/abs/2502.11534v1
- Date: Mon, 17 Feb 2025 08:04:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:09:12.786393
- Title: SurgPose: a Dataset for Articulated Robotic Surgical Tool Pose Estimation and Tracking
- Title(参考訳): SurgPose: ロボット手術用ツールの計測と追跡のためのデータセット
- Authors: Zijian Wu, Adam Schmidt, Randy Moore, Haoying Zhou, Alexandre Banks, Peter Kazanzides, Septimiu E. Salcudean,
- Abstract要約: SurgPoseは、視覚手術ツールの推測と追跡のためのインスタンス対応セマンティックキーポイントとスケルトンである。
SurgPoseデータセットは6つのカテゴリの約120kの手術器具インスタンス(トレーニング用80k、バリデーション用40k)で構成されている。
ビデオはステレオペアで収集されるため、2Dのポーズはステレオマッチングの深さに基づいて3Dに持ち上げることができる。
- 参考スコア(独自算出の注目度): 42.05426874677755
- License:
- Abstract: Accurate and efficient surgical robotic tool pose estimation is of fundamental significance to downstream applications such as augmented reality (AR) in surgical training and learning-based autonomous manipulation. While significant advancements have been made in pose estimation for humans and animals, it is still a challenge in surgical robotics due to the scarcity of published data. The relatively large absolute error of the da Vinci end effector kinematics and arduous calibration procedure make calibrated kinematics data collection expensive. Driven by this limitation, we collected a dataset, dubbed SurgPose, providing instance-aware semantic keypoints and skeletons for visual surgical tool pose estimation and tracking. By marking keypoints using ultraviolet (UV) reactive paint, which is invisible under white light and fluorescent under UV light, we execute the same trajectory under different lighting conditions to collect raw videos and keypoint annotations, respectively. The SurgPose dataset consists of approximately 120k surgical instrument instances (80k for training and 40k for validation) of 6 categories. Each instrument instance is labeled with 7 semantic keypoints. Since the videos are collected in stereo pairs, the 2D pose can be lifted to 3D based on stereo-matching depth. In addition to releasing the dataset, we test a few baseline approaches to surgical instrument tracking to demonstrate the utility of SurgPose. More details can be found at surgpose.github.io.
- Abstract(参考訳): 精密かつ効率的な手術用ロボットのポーズ推定は、外科訓練や学習に基づく自律的な操作において、拡張現実(AR)のような下流の応用に不可欠なものである。
人や動物のポーズ推定には大きな進歩があったが、公表されたデータが不足しているため、外科ロボティクスでは依然として課題となっている。
da Vinci エンド・エフェクタ・キネマティクスの比較的大きな絶対誤差と厳しい校正手順により、校正キネマティクスデータ収集は高価である。
この制限によって、私たちはSurgPoseと呼ばれるデータセットを収集し、視覚外科ツールのポーズ推定とトラッキングのためのインスタンス対応セマンティックキーポイントとスケルトンを提供しました。
紫外線 (UV) 反応塗料を用いて, 紫外線下では見えず, 紫外線下では蛍光が見えないキーポイントをマークすることで, それぞれ異なる照明条件下で同じ軌道を実行し, 生ビデオとキーポイントアノテーションを収集する。
SurgPoseデータセットは6つのカテゴリの約120kの手術器具インスタンス(トレーニング用80k、バリデーション用40k)で構成されている。
各インスツルメンツインスタンスには7つのセマンティックキーポイントがラベル付けされている。
ビデオはステレオペアで収集されるため、2Dのポーズはステレオマッチングの深さに基づいて3Dに持ち上げることができる。
SurgPose の有用性を実証するため,SurgPose のデータセットの公開に加えて,手術器具追跡に対するいくつかのベースラインアプローチを検証した。
詳細はsurgpose.github.ioで確認できる。
関連論文リスト
- Realistic Data Generation for 6D Pose Estimation of Surgical Instruments [4.226502078427161]
手術器具の6次元ポーズ推定は,手術操作の自動実行を可能にするために重要である。
家庭や工業環境では、3Dコンピュータグラフィックスソフトウェアで生成された合成データが、アノテーションコストを最小限に抑える代替手段として示されている。
本稿では,大規模・多様なデータセットの自動生成を可能にする外科ロボティクスのシミュレーション環境の改善を提案する。
論文 参考訳(メタデータ) (2024-06-11T14:59:29Z) - Neural feels with neural fields: Visuo-tactile perception for in-hand
manipulation [57.60490773016364]
マルチフィンガーハンドの視覚と触覚を組み合わせることで,手動操作時の物体の姿勢と形状を推定する。
提案手法であるNeuralFeelsは,ニューラルネットワークをオンラインで学習することでオブジェクトの形状を符号化し,ポーズグラフ問題を最適化して共同で追跡する。
私たちの結果は、タッチが少なくとも、洗練され、そして最も最良のものは、手動操作中に視覚的推定を曖昧にすることを示しています。
論文 参考訳(メタデータ) (2023-12-20T22:36:37Z) - Surgical Tattoos in Infrared: A Dataset for Quantifying Tissue Tracking
and Mapping [7.282909831316735]
Infraredデータセットの手術用タトゥーは、in-vivoとex-vivoの両方のシーンで数百のステレオビデオクリップで構成されている。
3000以上のラベル付きポイントを持つSTIRは、トラッキングとマッピングの方法の定量化と、よりよい分析を可能にする。
論文 参考訳(メタデータ) (2023-09-28T18:22:34Z) - POV-Surgery: A Dataset for Egocentric Hand and Tool Pose Estimation
During Surgical Activities [4.989930168854209]
POV-Surgeryは、異なる手術用手袋と3つの整形外科器具を持つ手のポーズ推定に焦点を当てた、大規模で合成されたエゴセントリックなデータセットである。
我々のデータセットは53のシーケンスと88,329のフレームで構成され、高解像度のRGB-Dビデオストリームとアクティビティアノテーションを備えている。
我々はPOV-Surgeryにおける現在のSOTA法を微調整し、手術用手袋と工具を用いた実生活症例に適用する際の一般化性を示す。
論文 参考訳(メタデータ) (2023-07-19T18:00:32Z) - DNA-Rendering: A Diverse Neural Actor Repository for High-Fidelity
Human-centric Rendering [126.00165445599764]
ニューラルアクターレンダリングのための人間のパフォーマンスデータの大規模かつ高忠実なリポジトリであるDNAレンダリングを提案する。
我々のデータセットには、1500人以上の被験者、5000のモーションシーケンス、67.5Mのフレームのデータボリュームが含まれています。
我々は,最大解像度4096 x 3000の60個の同期カメラと15fpsの速度,ステルカメラキャリブレーションステップを含む,データをキャプチャするプロフェッショナルなマルチビューシステムを構築した。
論文 参考訳(メタデータ) (2023-07-19T17:58:03Z) - Surgical tool classification and localization: results and methods from
the MICCAI 2022 SurgToolLoc challenge [69.91670788430162]
SurgLoc 2022 チャレンジの結果を示す。
目標は、ツール検出のためにトレーニングされた機械学習モデルにおいて、ツールの存在データを弱いラベルとして活用することだった。
これらの結果を機械学習と手術データ科学の幅広い文脈で論じることで結論付ける。
論文 参考訳(メタデータ) (2023-05-11T21:44:39Z) - AutoLaparo: A New Dataset of Integrated Multi-tasks for Image-guided
Surgical Automation in Laparoscopic Hysterectomy [42.20922574566824]
ヒステリクトミー手術における学習ベースの自動化を容易にするために,複数の画像に基づく知覚タスクを組み込んだ最初の統合データセットを提示,リリースする。
我々のAutoLaparoデータセットは、全子宮摘出術のフル長ビデオに基づいて開発されている。
具体的には、外科的ワークフロー認識、腹腔鏡運動予測、機器とキー解剖のセグメンテーションを含む、3つの異なる高相関なタスクがデータセットで定式化されている。
論文 参考訳(メタデータ) (2022-08-03T13:17:23Z) - HMD-EgoPose: Head-Mounted Display-Based Egocentric Marker-Less Tool and
Hand Pose Estimation for Augmented Surgical Guidance [0.0]
HMD-EgoPoseは、手動とオブジェクトのポーズ推定のための単発学習に基づくアプローチである。
マーカーレスハンドと手術器具のポーズトラッキングのためのベンチマークデータセット上で,最先端の性能を示す。
論文 参考訳(メタデータ) (2022-02-24T04:07:34Z) - Playing for 3D Human Recovery [88.91567909861442]
本研究では,自動注釈付けされた3Dグラウンド真理でビデオゲームをプレイすることで,膨大な人間のシーケンスを得る。
具体的には,GTA-Vゲームエンジンで生成された大規模3次元人文データセットであるGTA-Humanをコントリビュートする。
GTA-Humanで訓練された単純なフレームベースのベースラインは、より高度な手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2021-10-14T17:49:42Z) - AcinoSet: A 3D Pose Estimation Dataset and Baseline Models for Cheetahs
in the Wild [51.35013619649463]
我々はAcinoSetと呼ばれる野生のフリーランニングチーターの広範なデータセットを提示する。
データセットには、119,490フレームのマルチビュー同期高速ビデオ映像、カメラキャリブレーションファイル、7,588フレームが含まれている。
また、結果の3D軌道、人間チェックされた3D地上真実、およびデータを検査するインタラクティブツールも提供される。
論文 参考訳(メタデータ) (2021-03-24T15:54:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。