論文の概要: Self-Supervised Learning for Interactive Perception of Surgical Thread
for Autonomous Suture Tail-Shortening
- arxiv url: http://arxiv.org/abs/2307.06845v1
- Date: Thu, 13 Jul 2023 16:08:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-14 14:09:10.635629
- Title: Self-Supervised Learning for Interactive Perception of Surgical Thread
for Autonomous Suture Tail-Shortening
- Title(参考訳): 自己教師付き学習による縫合尾短縮手術糸の対話的知覚
- Authors: Vincent Schorp, Will Panitch, Kaushik Shivakumar, Vainavi Viswanath,
Justin Kerr, Yahav Avigal, Danyal M Fer, Lionel Ott, Ken Goldberg
- Abstract要約: 閉塞や複雑なスレッド構成に頑健な3次元手術糸の追跡法を提案する。
この方法は、手術縫合「テールショートニング」タスクを自律的に行う。
20回の試験で90%の成功率を達成した。
- 参考スコア(独自算出の注目度): 20.33214909821713
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate 3D sensing of suturing thread is a challenging problem in automated
surgical suturing because of the high state-space complexity, thinness and
deformability of the thread, and possibility of occlusion by the grippers and
tissue. In this work we present a method for tracking surgical thread in 3D
which is robust to occlusions and complex thread configurations, and apply it
to autonomously perform the surgical suture "tail-shortening" task: pulling
thread through tissue until a desired "tail" length remains exposed. The method
utilizes a learned 2D surgical thread detection network to segment suturing
thread in RGB images. It then identifies the thread path in 2D and reconstructs
the thread in 3D as a NURBS spline by triangulating the detections from two
stereo cameras. Once a 3D thread model is initialized, the method tracks the
thread across subsequent frames. Experiments suggest the method achieves a 1.33
pixel average reprojection error on challenging single-frame 3D thread
reconstructions, and an 0.84 pixel average reprojection error on two tracking
sequences. On the tail-shortening task, it accomplishes a 90% success rate
across 20 trials. Supplemental materials are available at
https://sites.google.com/berkeley.edu/autolab-surgical-thread/ .
- Abstract(参考訳): 縫合糸の正確な3次元センシングは, 状態空間の複雑さ, 糸の薄さ, 変形性, グリッパーや組織による咬合の可能性から, 外科的縫合の自動化において難しい課題である。
本研究では, 咬合や複雑な糸構成に頑健な3dの手術糸を追跡する方法を提案し, 目的の「尾長」が露出するまで糸を組織に引っ張るという外科的縫合「尾短縮」タスクを自律的に行う。
学習した2次元手術糸検出ネットワークを用いてRGB画像中の縫合糸を分割する。
次に、2Dでスレッドパスを特定し、3DでスレッドをNURBSスプラインとして再構成し、2つのステレオカメラから検出を三角測量する。
3Dスレッドモデルが初期化されると、メソッドはその後のフレームにわたってスレッドを追跡する。
実験により, 単一フレームの3次元スレッド再構成において1.33ピクセルの平均再投影誤差と2つの追跡シーケンスにおける平均再投影誤差が0.84ピクセルであることが示唆された。
尾打ち作業では、20回の試験で90%の成功率を達成する。
補足材料はhttps://sites.google.com/berkeley.edu/autolab-surgical-thread/で入手できる。
関連論文リスト
- EmbodiedSAM: Online Segment Any 3D Thing in Real Time [61.2321497708998]
身体的なタスクは、エージェントが探索と同時に3Dシーンを完全に理解する必要がある。
オンライン、リアルタイム、微粒化、高度に一般化された3D知覚モデルは、必死に必要である。
論文 参考訳(メタデータ) (2024-08-21T17:57:06Z) - An objective comparison of methods for augmented reality in laparoscopic
liver resection by preoperative-to-intraoperative image fusion [33.12510773034339]
腹腔鏡下肝切除のための拡張現実(Augmented reality)は、腹腔鏡下画像上に投射することで、外科医が肝臓内に埋め込まれた腫瘍や血管をローカライズできる可視化モードである。
ほとんどのアルゴリズムは、登録をガイドするために解剖学的ランドマークを使用している。
これらのランドマークには、肝臓の下尾根、ファルシホルムの靭帯、および閉塞輪郭が含まれる。
術中腹腔鏡下固定術(P2ILF)を施行し,これらのランドマークを自動的に検出し,登録する可能性について検討した。
論文 参考訳(メタデータ) (2024-01-28T20:30:14Z) - Geometry-Aware Attenuation Learning for Sparse-View CBCT Reconstruction [53.93674177236367]
Cone Beam Computed Tomography (CBCT) は臨床画像撮影において重要な役割を担っている。
従来の方法では、高品質な3D CBCT画像の再構成には数百の2次元X線投影が必要である。
これにより、放射線線量を減らすため、スパースビューCBCT再構成への関心が高まっている。
本稿では,この問題を解決するために,新しい幾何対応エンコーダデコーダフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-26T14:38:42Z) - SSR-2D: Semantic 3D Scene Reconstruction from 2D Images [54.46126685716471]
本研究では,3Dアノテーションを使わずにセマンティックなシーン再構成を行う中心的な3Dシーンモデリングタスクについて検討する。
提案手法の鍵となる考え方は,不完全な3次元再構成と対応するRGB-D画像の両方を用いたトレーニング可能なモデルの設計である。
本研究では,2つの大規模ベンチマークデータセットであるMatterPort3DとScanNetに対して,セマンティックシーン補完の最先端性能を実現する。
論文 参考訳(メタデータ) (2023-02-07T17:47:52Z) - A Novel Hybrid Convolutional Neural Network for Accurate Organ
Segmentation in 3D Head and Neck CT Images [31.245109574064532]
本研究では,2次元と3次元の畳み込みを融合させて異なる空間解像度に対処し,3次元HaNCT画像から効果的なエッジとセマンティック特徴を抽出するハイブリッドCNNを提案する。
MICCAI 2015チャレンジデータセットの実験は、OrganNet2.5Dが最先端の手法と比較して有望なパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2021-09-26T15:37:47Z) - Asymmetric 3D Context Fusion for Universal Lesion Detection [55.61873234187917]
3Dネットワークは、3Dコンテキストでは強いが、教師付き事前トレーニングがない。
既存の3Dコンテキスト融合演算子は空間対称に設計されており、畳み込みのように各2Dスライス上で同一の操作を行う。
本研究では, 異なる重みを持つ非対称な3次元コンテキスト融合演算子 (A3D) を提案し, 異なる2次元スライスから3次元コンテキストを融合させる。
論文 参考訳(メタデータ) (2021-09-17T16:25:10Z) - Deep Hybrid Self-Prior for Full 3D Mesh Generation [57.78562932397173]
本稿では,深部ニューラルネットワークにおける2D-3Dのハイブリッドな自己優先性を利用して,幾何学的品質を著しく向上する手法を提案する。
特に,まず3次元自己優先型3次元畳み込みニューラルネットワークを用いて初期メッシュを生成し,次いで2次元紫外線アトラスに3次元情報と色情報をエンコードする。
本手法は,スパース入力から高品質な3次元テクスチャメッシュモデルを復元し,テクスチャ品質とテクスチャ品質の両面で最先端の手法より優れている。
論文 参考訳(メタデータ) (2021-08-18T07:44:21Z) - FCOS3D: Fully Convolutional One-Stage Monocular 3D Object Detection [78.00922683083776]
一般的な2D検出器をこの3Dタスクで動作させることは簡単ではない。
本報告では,完全畳み込み型単段検出器を用いた手法を用いてこの問題を考察する。
私たちのソリューションは、NeurIPS 2020のnuScenes 3D検出チャレンジのすべてのビジョンのみの方法の中で1位を獲得します。
論文 参考訳(メタデータ) (2021-04-22T09:35:35Z) - Camera-Space Hand Mesh Recovery via Semantic Aggregation and Adaptive
2D-1D Registration [24.06587611582698]
カメラ空間メッシュリカバリを2つのサブタスク、すなわちルート相対メッシュリカバリとルートリカバリに分割します。
ルート関係メッシュリカバリタスクでは,関節間の意味関係を利用して2次元キューから3次元メッシュを生成する。
根回収タスクでは、生成した3Dメッシュを2Dキューに戻すことにより、根位置をカメラ空間に登録する。
論文 参考訳(メタデータ) (2021-03-04T05:46:04Z) - Map3D: Registration Based Multi-Object Tracking on 3D Serial Whole Slide
Images [10.519063258650508]
本稿では,3Dオブジェクトの大規模断面の自動同定と関連付けを行う3D(Map3D)手法を提案する。
提案手法はMOTA=44.6であり,非ディープラーニングベンチマークよりも12.1%高い。
論文 参考訳(メタデータ) (2020-06-10T19:31:02Z) - 3D Self-Supervised Methods for Medical Imaging [7.65168530693281]
本稿では,プロキシタスクの形式で,5種類の自己教師型手法の3次元バージョンを提案する。
提案手法は,未ラベルの3次元画像からニューラルネットワークの特徴学習を容易にし,専門家のアノテーションに必要なコストを削減することを目的としている。
開発したアルゴリズムは、3D Contrastive Predictive Coding, 3D Rotation Prediction, 3D Jigsaw puzzles, Relative 3D patch location, 3D Exemplar Networkである。
論文 参考訳(メタデータ) (2020-06-06T09:56:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。