論文の概要: AutoCam: Hierarchical Path Planning for an Autonomous Auxiliary Camera in Surgical Robotics
- arxiv url: http://arxiv.org/abs/2505.10398v1
- Date: Thu, 15 May 2025 15:21:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-16 22:29:06.379775
- Title: AutoCam: Hierarchical Path Planning for an Autonomous Auxiliary Camera in Surgical Robotics
- Title(参考訳): AutoCam:手術ロボットにおける自律補助カメラの階層的経路計画
- Authors: Alexandre Banks, Randy Moore, Sayem Nazmuz Zaman, Alaa Eldin Abdelaal, Septimiu E. Salcudean,
- Abstract要約: AutoCamは、ロボットによる最小侵襲手術の可視化を改善するための、自動補助カメラ配置方法である。
ユーザーによる調査では、システムは健全な特徴の99.84%の可視性を保ち、ポーズエラーは4.36$pm$2.11°に達した。
以上の結果から,da Vinci患者側マニピュレータを用いて補助カメラを自律的に制御し,正常な特徴を追跡できることが示唆された。
- 参考スコア(独自算出の注目度): 41.72932647890081
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Incorporating an autonomous auxiliary camera into robot-assisted minimally invasive surgery (RAMIS) enhances spatial awareness and eliminates manual viewpoint control. Existing path planning methods for auxiliary cameras track two-dimensional surgical features but do not simultaneously account for camera orientation, workspace constraints, and robot joint limits. This study presents AutoCam: an automatic auxiliary camera placement method to improve visualization in RAMIS. Implemented on the da Vinci Research Kit, the system uses a priority-based, workspace-constrained control algorithm that combines heuristic geometric placement with nonlinear optimization to ensure robust camera tracking. A user study (N=6) demonstrated that the system maintained 99.84% visibility of a salient feature and achieved a pose error of 4.36 $\pm$ 2.11 degrees and 1.95 $\pm$ 5.66 mm. The controller was computationally efficient, with a loop time of 6.8 $\pm$ 12.8 ms. An additional pilot study (N=6), where novices completed a Fundamentals of Laparoscopic Surgery training task, suggests that users can teleoperate just as effectively from AutoCam's viewpoint as from the endoscope's while still benefiting from AutoCam's improved visual coverage of the scene. These results indicate that an auxiliary camera can be autonomously controlled using the da Vinci patient-side manipulators to track a salient feature, laying the groundwork for new multi-camera visualization methods in RAMIS.
- Abstract(参考訳): 自律型補助カメラをロボット支援最小侵襲手術(RAMIS)に組み込むことにより、空間認識が向上し、手動視点制御が不要になる。
既存の補助カメラの経路計画法は2次元の外科的特徴を追跡できるが,カメラの向き,ワークスペースの制約,ロボット関節の限界を同時に考慮しない。
本研究は,RAMISの可視化を改善するための自動補助カメラ配置法であるAutoCamを提案する。
da Vinci Research Kitに実装されたこのシステムは、ヒューリスティックな幾何学的配置と非線形最適化を組み合わせて、優先順位に基づく、ワークスペースに制約のある制御アルゴリズムを使用している。
ユーザー調査 (N=6) では、システムは健全な特徴の99.84%の可視性を保ち、4.36$\pm$2.11°と1.95$\pm$5.66 mmのポーズエラーを達成した。
追加のパイロットスタディ(N=6)では、初心者が腹腔鏡下手術訓練タスクを完了し、ユーザーは、オートカムの視覚的カバレッジの改善から恩恵を受けながら、内視鏡の視点で同様に効果的に遠隔操作できることが示唆された。
これらの結果から,DA Vinci患者側マニピュレータを用いて補助カメラを自律的に制御し,正常な特徴を追跡できることが示唆された。
関連論文リスト
- City-Scale Multi-Camera Vehicle Tracking System with Improved Self-Supervised Camera Link Model [0.0]
本稿では,自己監督型カメラリンクモデルを用いた,革新的なマルチカメラ車両追跡システムを提案する。
提案手法は,61.07%のIDF1スコアを有するCityFlow V2ベンチマークにおいて,自動カメラリンク方式の最先端性を実現する。
論文 参考訳(メタデータ) (2024-05-18T17:28:35Z) - Next-generation Surgical Navigation: Marker-less Multi-view 6DoF Pose Estimation of Surgical Instruments [64.59698930334012]
静止カメラとヘッドマウントカメラを組み合わせたマルチカメラ・キャプチャー・セットアップを提案する。
第2に,手術用ウェットラボと実際の手術用劇場で撮影された元脊椎手術のマルチビューRGB-Dビデオデータセットを公表した。
第3に,手術器具の6DoFポーズ推定の課題に対して,最先端のシングルビューとマルチビューの3つの手法を評価した。
論文 参考訳(メタデータ) (2023-05-05T13:42:19Z) - Lasers to Events: Automatic Extrinsic Calibration of Lidars and Event
Cameras [67.84498757689776]
本稿では,イベントカメラとライダーの直接校正法について述べる。
フレームベースのカメラインターミディエートおよび/または高精度の手測定への依存を除去する。
論文 参考訳(メタデータ) (2022-07-03T11:05:45Z) - CNN-based Omnidirectional Object Detection for HermesBot Autonomous
Delivery Robot with Preliminary Frame Classification [53.56290185900837]
予備的バイナリフレーム分類を用いた物体検出のためのニューラルネットワークの最適化アルゴリズムを提案する。
周囲に6台のローリングシャッターカメラを備えた自律移動ロボットを360度視野として実験装置として使用した。
論文 参考訳(メタデータ) (2021-10-22T15:05:37Z) - Practical Auto-Calibration for Spatial Scene-Understanding from
Crowdsourced Dashcamera Videos [1.0499611180329804]
本研究では,クラウドソースビデオからの単眼搭載カメラの自動キャリブレーションシステムを提案する。
提案したシステムの有効性を,KITTI生データ,Oxford RobotCar,クラウドソーシングしたD$2$-Cityデータセット上で確認した。
論文 参考訳(メタデータ) (2020-12-15T15:38:17Z) - Goal-Auxiliary Actor-Critic for 6D Robotic Grasping with Point Clouds [62.013872787987054]
6次元グルーピングのためのクローズドループ制御ポリシーを学習するための新しい手法を提案する。
本ポリシーでは,エゴセントリックカメラからの物体のセグメント化点雲を入力とし,ロボットグリップの連続した6次元制御動作を出力し,物体をつかむ。
論文 参考訳(メタデータ) (2020-10-02T07:42:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。