論文の概要: Real-time Rendering-based Surgical Instrument Tracking via Evolutionary Optimization
- arxiv url: http://arxiv.org/abs/2603.11404v1
- Date: Thu, 12 Mar 2026 00:30:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.733383
- Title: Real-time Rendering-based Surgical Instrument Tracking via Evolutionary Optimization
- Title(参考訳): 進化的最適化によるリアルタイムレンダリングに基づく手術器具追跡
- Authors: Hanyang Hu, Zekai Liang, Florian Richter, Michael C. Yip,
- Abstract要約: 手術器具のポーズと関節構成を共同で推定する多目的追跡パイプラインを提案する。
提案手法は,視覚フィードバック制御とオンライン手術ビデオキャリブレーションの両方に適合する。
- 参考スコア(独自算出の注目度): 21.436806983625885
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate and efficient tracking of surgical instruments is fundamental for Robot-Assisted Minimally Invasive Surgery. Although vision-based robot pose estimation has enabled markerless calibration without tedious physical setups, reliable tool tracking for surgical robots still remains challenging due to partial visibility and specialized articulation design of surgical instruments. Previous works in the field are usually prone to unreliable feature detections under degraded visual quality and data scarcity, whereas rendering-based methods often struggle with computational costs and suboptimal convergence. In this work, we incorporate CMA-ES, an evolutionary optimization strategy, into a versatile tracking pipeline that jointly estimates surgical instrument pose and joint configurations. Using batch rendering to efficiently evaluate multiple pose candidates in parallel, the method significantly reduces inference time and improves convergence robustness. The proposed framework further generalizes to joint angle-free and bi-manual tracking settings, making it suitable for both vision feedback control and online surgery video calibration. Extensive experiments on synthetic and real-world datasets demonstrate that the proposed method significantly outperforms prior approaches in both accuracy and runtime.
- Abstract(参考訳): 手術器具の高精度かつ効率的な追跡は,ロボットによる侵襲的手術の基礎となる。
視覚に基づくロボットのポーズ推定は、面倒な物理的な設定なしにマーカーレスキャリブレーションを可能にしたが、外科用ロボットの信頼性の高いツールトラッキングは、外科用機器の部分的な可視性や特殊な調音設計のために依然として困難である。
この分野における以前の研究は通常、劣化した視覚的品質とデータの不足の下で、信頼性の低い特徴検出を行う傾向にあるが、レンダリングベースの手法は計算コストと最適下限収束に苦しむことが多い。
本研究では,手術器具のポーズと関節構成を共同で推定する多目的追跡パイプラインに,進化的最適化戦略であるCMA-ESを組み込む。
バッチレンダリングを用いて複数のポーズ候補を並列に効率的に評価することにより、推論時間を大幅に短縮し、収束堅牢性を向上させる。
提案手法は,視覚フィードバック制御とオンライン手術ビデオキャリブレーションの両方に適合する。
合成および実世界のデータセットに対する大規模な実験により、提案手法は、精度と実行時間の両方において、従来の手法よりも大幅に優れていることが示された。
関連論文リスト
- Extend Your Horizon: A Device-Agnostic Surgical Tool Tracking Framework with Multi-View Optimization for Augmented Reality [40.023882327049684]
手術ナビゲーションは、患者の解剖学と手術器具のポーズを推定することでリアルタイムのガイダンスを提供する。
既存のアプローチのほとんどは明確な視線に依存しており、動的な手術室環境では維持が困難である。
本研究は,動的なシーングラフ表現内に複数の感覚モーダルを融合させることにより,閉塞下での手術器具の追跡を行う枠組みを導入する。
論文 参考訳(メタデータ) (2026-03-09T05:37:49Z) - Efficient Surgical Robotic Instrument Pose Reconstruction in Real World Conditions Using Unified Feature Detection [21.460727996614704]
MISロボットは、長いキネマティックチェーンを持ち、カメラ内の自由度を部分的に可視化する。
本稿では,共有符号化による幾何学的プリミティブの検出を統一する新しいフレームワークを提案する。
このアーキテクチャは、1つの推論でキーポイントとエッジの両方を検出し、射影ラベル付き大規模合成データに基づいて訓練される。
論文 参考訳(メタデータ) (2025-10-03T22:03:28Z) - Efficient 3D Scene Reconstruction and Simulation from Sparse Endoscopic Views [0.7614628596146601]
内視鏡的画像からインタラクティブな手術シーンを再構築するためのガウススプラッティングに基づくフレームワークを提案する。
データ駆動型シミュレーションのパラダイムにおける重要な課題は、内視鏡カメラの制限された動きである。
本手法は,スパース内視鏡による手術シーンの再現とシミュレートを効果的に行うことができることを示す。
論文 参考訳(メタデータ) (2025-09-21T10:40:36Z) - Tracking Everything in Robotic-Assisted Surgery [39.62251870446397]
そこで我々は,手術シナリオに対するベンチマーク追跡のための注釈付き手術追跡データセットを提案する。
我々は,このデータセット上で最先端(SOTA)のTAPベースのアルゴリズムを評価し,その限界を明らかにする。
本稿では,新たなトラッキング手法であるSurgMotionを提案し,その課題の解決とトラッキング性能の向上を図る。
論文 参考訳(メタデータ) (2024-09-29T23:06:57Z) - Efficient Deformable Tissue Reconstruction via Orthogonal Neural Plane [58.871015937204255]
変形性組織を再建するための高速直交平面(Fast Orthogonal Plane)を導入する。
我々は外科手術を4Dボリュームとして概念化し、それらをニューラルネットワークからなる静的および動的フィールドに分解する。
この分解により4次元空間が増加し、メモリ使用量が減少し、最適化が高速化される。
論文 参考訳(メタデータ) (2023-12-23T13:27:50Z) - Visual-Kinematics Graph Learning for Procedure-agnostic Instrument Tip
Segmentation in Robotic Surgeries [29.201385352740555]
そこで我々は,様々な外科手術を施した楽器の先端を正確に分類する新しいビジュアル・キネマティクスグラフ学習フレームワークを提案する。
具体的には、画像とキネマティクスの両方から楽器部品のリレーショナル特徴を符号化するグラフ学習フレームワークを提案する。
クロスモーダル・コントラッシブ・ロスは、キネマティクスからチップセグメンテーションのイメージへの頑健な幾何学的先行を組み込むように設計されている。
論文 参考訳(メタデータ) (2023-09-02T14:52:58Z) - Neural LerPlane Representations for Fast 4D Reconstruction of Deformable
Tissues [52.886545681833596]
LerPlaneは単一視点環境下での手術シーンの高速かつ正確な再構築手法である。
LerPlaneは外科手術を4Dボリュームとして扱い、静的および動的フィールドの明示的な2D平面に分解する。
LerPlaneは静的フィールドを共有し、動的組織モデリングのワークロードを大幅に削減する。
論文 参考訳(メタデータ) (2023-05-31T14:38:35Z) - Next-generation Surgical Navigation: Marker-less Multi-view 6DoF Pose Estimation of Surgical Instruments [64.59698930334012]
静止カメラとヘッドマウントカメラを組み合わせたマルチカメラ・キャプチャー・セットアップを提案する。
第2に,手術用ウェットラボと実際の手術用劇場で撮影された元脊椎手術のマルチビューRGB-Dビデオデータセットを公表した。
第3に,手術器具の6DoFポーズ推定の課題に対して,最先端のシングルビューとマルチビューの3つの手法を評価した。
論文 参考訳(メタデータ) (2023-05-05T13:42:19Z) - EasyHeC: Accurate and Automatic Hand-eye Calibration via Differentiable
Rendering and Space Exploration [49.90228618894857]
我々は、マーカーレスでホワイトボックスであり、より優れた精度とロバスト性を提供するEasyHeCと呼ばれる手眼校正の新しいアプローチを導入する。
我々は,2つの重要な技術 – レンダリングベースのカメラポーズの最適化と整合性に基づく共同空間探索 – を利用することを提案する。
本評価は,合成および実世界のデータセットにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-02T03:49:54Z) - Real-time landmark detection for precise endoscopic submucosal
dissection via shape-aware relation network [51.44506007844284]
内視鏡下粘膜下郭清術における高精度かつリアルタイムなランドマーク検出のための形状認識型関係ネットワークを提案する。
まず,ランドマーク間の空間的関係に関する先行知識を直感的に表現する関係キーポイント・ヒートマップを自動生成するアルゴリズムを考案する。
次に、事前知識を学習プロセスに段階的に組み込むために、2つの補完的な正規化手法を開発する。
論文 参考訳(メタデータ) (2021-11-08T07:57:30Z) - Searching for Efficient Architecture for Instrument Segmentation in
Robotic Surgery [58.63306322525082]
ほとんどのアプリケーションは、高解像度の外科画像の正確なリアルタイムセグメンテーションに依存している。
我々は,高解像度画像のリアルタイム推論を行うために調整された,軽量で高効率なディープ残差アーキテクチャを設計する。
論文 参考訳(メタデータ) (2020-07-08T21:38:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。