論文の概要: Single-Shot Pose Estimation of Surgical Robot Instruments' Shafts from
Monocular Endoscopic Images
- arxiv url: http://arxiv.org/abs/2003.01267v1
- Date: Tue, 3 Mar 2020 00:38:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 23:38:26.643519
- Title: Single-Shot Pose Estimation of Surgical Robot Instruments' Shafts from
Monocular Endoscopic Images
- Title(参考訳): 単眼内視鏡画像による手術用ロボットのシャフトの単発ポーズ推定
- Authors: Masakazu Yoshimura, Murilo M. Marinho, Kanako Harada, Mamoru Mitsuishi
- Abstract要約: 単眼内視鏡を用いて手術器具のシャフトのポーズを推定する新しい手法を提案する。
提案手法は,自動アノテーション付きトレーニングデータセットと,ポーズ推定深層学習アーキテクチャの改良に基づく。
- 参考スコア(独自算出の注目度): 8.966454850713522
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Surgical robots are used to perform minimally invasive surgery and alleviate
much of the burden imposed on surgeons. Our group has developed a surgical
robot to aid in the removal of tumors at the base of the skull via access
through the nostrils. To avoid injuring the patients, a collision-avoidance
algorithm that depends on having an accurate model for the poses of the
instruments' shafts is used. Given that the model's parameters can change over
time owing to interactions between instruments and other disturbances, the
online estimation of the poses of the instrument's shaft is essential. In this
work, we propose a new method to estimate the pose of the surgical instruments'
shafts using a monocular endoscope. Our method is based on the use of an
automatically annotated training dataset and an improved pose-estimation
deep-learning architecture. In preliminary experiments, we show that our method
can surpass state of the art vision-based marker-less pose estimation
techniques (providing an error decrease of 55% in position estimation, 64% in
pitch, and 69% in yaw) by using artificial images.
- Abstract(参考訳): 手術ロボットは、最小限の侵襲的な手術を行い、外科医に課される負担の多くを軽減するために使用される。
当科では,鼻孔を介し頭蓋底の腫瘍除去を支援する手術ロボットを開発した。
患者を負傷させるのを避けるために、機器のシャフトのポーズの正確なモデルを持つことに依存する衝突回避アルゴリズムを用いる。
楽器と他の乱れとの相互作用によってモデルのパラメータが時間とともに変化するので、楽器のシャフトのポーズのオンライン推定が不可欠である。
そこで本研究では,単眼内視鏡を用いて手術器具の軸の形状を推定する新しい方法を提案する。
提案手法は,自動アノテーション付きトレーニングデータセットと,ポーズ推定深層学習アーキテクチャの改良に基づく。
予備実験では, 人工画像を用いて, 55%の位置推定精度, ピッチ64%, ヤウ69%の誤差低減を実現するため, 目視に基づくマーカレスポーズ推定手法の状態を超過できることを示す。
関連論文リスト
- Realistic Data Generation for 6D Pose Estimation of Surgical Instruments [4.226502078427161]
手術器具の6次元ポーズ推定は,手術操作の自動実行を可能にするために重要である。
家庭や工業環境では、3Dコンピュータグラフィックスソフトウェアで生成された合成データが、アノテーションコストを最小限に抑える代替手段として示されている。
本稿では,大規模・多様なデータセットの自動生成を可能にする外科ロボティクスのシミュレーション環境の改善を提案する。
論文 参考訳(メタデータ) (2024-06-11T14:59:29Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - Monocular Microscope to CT Registration using Pose Estimation of the
Incus for Augmented Reality Cochlear Implant Surgery [3.8909273404657556]
本研究では, 外部追跡装置を必要とせず, 2次元から3次元の観察顕微鏡映像を直接CTスキャンに登録する手法を開発した。
その結果, x, y, z軸の平均回転誤差は25度未満, 翻訳誤差は2mm, 3mm, 0.55%であった。
論文 参考訳(メタデータ) (2024-03-12T00:26:08Z) - Visual-Kinematics Graph Learning for Procedure-agnostic Instrument Tip
Segmentation in Robotic Surgeries [29.201385352740555]
そこで我々は,様々な外科手術を施した楽器の先端を正確に分類する新しいビジュアル・キネマティクスグラフ学習フレームワークを提案する。
具体的には、画像とキネマティクスの両方から楽器部品のリレーショナル特徴を符号化するグラフ学習フレームワークを提案する。
クロスモーダル・コントラッシブ・ロスは、キネマティクスからチップセグメンテーションのイメージへの頑健な幾何学的先行を組み込むように設計されている。
論文 参考訳(メタデータ) (2023-09-02T14:52:58Z) - Next-generation Surgical Navigation: Marker-less Multi-view 6DoF Pose
Estimation of Surgical Instruments [66.74633676595889]
静止カメラとヘッドマウントカメラを組み合わせたマルチカメラ・キャプチャー・セットアップを提案する。
第2に,手術用ウェットラボと実際の手術用劇場で撮影された元脊椎手術のマルチビューRGB-Dビデオデータセットを公表した。
第3に,手術器具の6DoFポーズ推定の課題に対して,最先端のシングルビューとマルチビューの3つの手法を評価した。
論文 参考訳(メタデータ) (2023-05-05T13:42:19Z) - Live image-based neurosurgical guidance and roadmap generation using
unsupervised embedding [53.992124594124896]
本稿では,注釈付き脳外科ビデオの大規模なデータセットを活用するライブ画像のみのガイダンスを提案する。
生成されたロードマップは、トレーニングセットの手術で取られた一般的な解剖学的パスをエンコードする。
166例の腹腔鏡下腺摘出術を施行し,本法の有効性について検討した。
論文 参考訳(メタデータ) (2023-03-31T12:52:24Z) - Robotic Navigation Autonomy for Subretinal Injection via Intelligent
Real-Time Virtual iOCT Volume Slicing [88.99939660183881]
網膜下注射のための自律型ロボットナビゲーションの枠組みを提案する。
提案手法は,機器のポーズ推定方法,ロボットとi OCTシステム間のオンライン登録,およびインジェクションターゲットへのナビゲーションに適した軌道計画から構成される。
ブタ前眼の精度と再現性について実験を行った。
論文 参考訳(メタデータ) (2023-01-17T21:41:21Z) - MBAPose: Mask and Bounding-Box Aware Pose Estimation of Surgical
Instruments with Photorealistic Domain Randomization [9.925707806264613]
剛体手術器具の姿勢をより正確に推定するための新しい枠組みを提案する。
我々の戦略はMBAPoseと呼ばれる新しいポーズ推定モデルと合成学習データの利用に基づいている。
論文 参考訳(メタデータ) (2021-03-15T02:53:41Z) - A Kinematic Bottleneck Approach For Pose Regression of Flexible Surgical
Instruments directly from Images [17.32860829016479]
ロボットから提供される運動情報のみをトレーニング時に活用し、自己監督画像に基づく手法を提案する。
時間を要する手動アノテーションの導入を避けるため、問題は自動エンコーダとして定式化される。
本手法の検証は, 柔軟ロボット内視鏡を用いて, 半合成, 幻, および生体内データセットを用いて行った。
論文 参考訳(メタデータ) (2021-02-28T18:41:18Z) - Towards Unsupervised Learning for Instrument Segmentation in Robotic
Surgery with Cycle-Consistent Adversarial Networks [54.00217496410142]
本稿では、入力された内視鏡画像と対応するアノテーションとのマッピングを学習することを目的として、未ペア画像から画像への変換を提案する。
当社のアプローチでは,高価なアノテーションを取得することなく,イメージセグメンテーションモデルをトレーニングすることが可能です。
提案手法をEndovis 2017チャレンジデータセットで検証し,教師付きセグメンテーション手法と競合することを示す。
論文 参考訳(メタデータ) (2020-07-09T01:39:39Z) - Searching for Efficient Architecture for Instrument Segmentation in
Robotic Surgery [58.63306322525082]
ほとんどのアプリケーションは、高解像度の外科画像の正確なリアルタイムセグメンテーションに依存している。
我々は,高解像度画像のリアルタイム推論を行うために調整された,軽量で高効率なディープ残差アーキテクチャを設計する。
論文 参考訳(メタデータ) (2020-07-08T21:38:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。