論文の概要: Real-Time Instrument Segmentation in Robotic Surgery using Auxiliary
Supervised Deep Adversarial Learning
- arxiv url: http://arxiv.org/abs/2007.11319v2
- Date: Wed, 30 Sep 2020 09:07:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 23:33:31.590354
- Title: Real-Time Instrument Segmentation in Robotic Surgery using Auxiliary
Supervised Deep Adversarial Learning
- Title(参考訳): 補助教師付きdeep adversarial learningを用いたロボット手術における実時間楽器セグメンテーション
- Authors: Mobarakol Islam, Daniel A. Atputharuban, Ravikiran Ramesh, Hongliang
Ren
- Abstract要約: ロボット機器と組織のリアルタイムセマンティックセグメンテーションは、ロボット支援手術において重要なステップである。
我々は,高解像度ビデオから手術器具を分割する軽量カスケード畳み込みニューラルネットワーク(CNN)を開発した。
高解像度ビデオの予測精度とセグメンテーション時間の両方において,術具の画素単位のセグメンテーションのための既存のアルゴリズムを超越していることを示す。
- 参考スコア(独自算出の注目度): 15.490603884631764
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robot-assisted surgery is an emerging technology which has undergone rapid
growth with the development of robotics and imaging systems. Innovations in
vision, haptics and accurate movements of robot arms have enabled surgeons to
perform precise minimally invasive surgeries. Real-time semantic segmentation
of the robotic instruments and tissues is a crucial step in robot-assisted
surgery. Accurate and efficient segmentation of the surgical scene not only
aids in the identification and tracking of instruments but also provided
contextual information about the different tissues and instruments being
operated with. For this purpose, we have developed a light-weight cascaded
convolutional neural network (CNN) to segment the surgical instruments from
high-resolution videos obtained from a commercial robotic system. We propose a
multi-resolution feature fusion module (MFF) to fuse the feature maps of
different dimensions and channels from the auxiliary and main branch. We also
introduce a novel way of combining auxiliary loss and adversarial loss to
regularize the segmentation model. Auxiliary loss helps the model to learn
low-resolution features, and adversarial loss improves the segmentation
prediction by learning higher order structural information. The model also
consists of a light-weight spatial pyramid pooling (SPP) unit to aggregate rich
contextual information in the intermediate stage. We show that our model
surpasses existing algorithms for pixel-wise segmentation of surgical
instruments in both prediction accuracy and segmentation time of
high-resolution videos.
- Abstract(参考訳): ロボット支援手術は、ロボット工学とイメージングシステムの開発で急速に成長を遂げた新興技術である。
ロボットアームの視覚、触覚、正確な動作の革新により、外科医は正確な侵襲的な手術を行えるようになった。
ロボット機器と組織のリアルタイムセマンティクスセグメンテーションは、ロボット支援手術において重要なステップである。
手術シーンの高精度かつ効率的な分割は, 機器の識別と追跡に役立つだけでなく, 操作中の異なる組織や器具の文脈情報も提供した。
そこで本研究では,商用ロボットシステムから得られた高分解能映像から手術器具を分割する軽量カスケード畳み込みニューラルネットワーク(cnn)を開発した。
本稿では,補助枝と主枝の異なる次元とチャネルの特徴マップを融合するマルチレゾリューション機能融合モジュール(mff)を提案する。
また,セグメンテーションモデルに補助損失と逆損失を組み合わせた新たな手法を導入する。
補助損失はモデルが低解像度の特徴を学ぶのに役立ち、逆損失は高次構造情報を学習することでセグメンテーション予測を改善する。
このモデルは、中間段階の豊富なコンテキスト情報を集約する軽量空間ピラミッドプール(SPP)ユニットも構成している。
本モデルは,高精度映像の予測精度とセグメンテーション時間の両方において,既存の手術器具の画素分割アルゴリズムを上回っていることを示す。
関連論文リスト
- CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - Visual-Kinematics Graph Learning for Procedure-agnostic Instrument Tip
Segmentation in Robotic Surgeries [29.201385352740555]
そこで我々は,様々な外科手術を施した楽器の先端を正確に分類する新しいビジュアル・キネマティクスグラフ学習フレームワークを提案する。
具体的には、画像とキネマティクスの両方から楽器部品のリレーショナル特徴を符号化するグラフ学習フレームワークを提案する。
クロスモーダル・コントラッシブ・ロスは、キネマティクスからチップセグメンテーションのイメージへの頑健な幾何学的先行を組み込むように設計されている。
論文 参考訳(メタデータ) (2023-09-02T14:52:58Z) - Video-Instrument Synergistic Network for Referring Video Instrument
Segmentation in Robotic Surgery [29.72271827272853]
本研究は,手術用ビデオ機器(RSVIS)の新たな課題を探求する。
与えられた言語表現に基づいて対応する手術器具を自動的に識別・分節することを目的としている。
我々は,ビデオレベルと楽器レベルの両方の知識を学習し,性能を向上させるために,ビデオ機器合成ネットワーク(VIS-Net)を考案した。
論文 参考訳(メタデータ) (2023-08-18T11:24:06Z) - GLSFormer : Gated - Long, Short Sequence Transformer for Step
Recognition in Surgical Videos [57.93194315839009]
本稿では,シーケンスレベルのパッチから時間的特徴を直接学習するための視覚変換器に基づくアプローチを提案する。
本研究では,白内障手術用ビデオデータセットである白内障-101とD99に対するアプローチを広範に評価し,各種の最先端手法と比較して優れた性能を示した。
論文 参考訳(メタデータ) (2023-07-20T17:57:04Z) - Robotic Navigation Autonomy for Subretinal Injection via Intelligent
Real-Time Virtual iOCT Volume Slicing [88.99939660183881]
網膜下注射のための自律型ロボットナビゲーションの枠組みを提案する。
提案手法は,機器のポーズ推定方法,ロボットとi OCTシステム間のオンライン登録,およびインジェクションターゲットへのナビゲーションに適した軌道計画から構成される。
ブタ前眼の精度と再現性について実験を行った。
論文 参考訳(メタデータ) (2023-01-17T21:41:21Z) - One to Many: Adaptive Instrument Segmentation via Meta Learning and
Dynamic Online Adaptation in Robotic Surgical Video [71.43912903508765]
MDALは、ロボット支援手術における機器セグメンテーションのための動的オンライン適応学習スキームです。
ビデオ固有のメタ学習パラダイムを通じて、楽器の一般的な知識と高速適応能力を学ぶ。
2つのデータセットで他の最先端のメソッドよりも優れています。
論文 参考訳(メタデータ) (2021-03-24T05:02:18Z) - Relational Graph Learning on Visual and Kinematics Embeddings for
Accurate Gesture Recognition in Robotic Surgery [84.73764603474413]
本稿では,マルチモーダルグラフネットワーク(MRG-Net)の新たなオンラインアプローチを提案し,視覚情報とキネマティクス情報を動的に統合する。
本手法の有効性は, JIGSAWSデータセット上での最先端の成果で実証された。
論文 参考訳(メタデータ) (2020-11-03T11:00:10Z) - Synthetic and Real Inputs for Tool Segmentation in Robotic Surgery [10.562627972607892]
腹腔鏡画像と組み合わせたロボットキネマティックデータを用いてラベル付け問題を緩和できる可能性が示唆された。
腹腔鏡画像とシミュレーション画像の並列処理のための新しい深層学習モデルを提案する。
論文 参考訳(メタデータ) (2020-07-17T16:33:33Z) - Searching for Efficient Architecture for Instrument Segmentation in
Robotic Surgery [58.63306322525082]
ほとんどのアプリケーションは、高解像度の外科画像の正確なリアルタイムセグメンテーションに依存している。
我々は,高解像度画像のリアルタイム推論を行うために調整された,軽量で高効率なディープ残差アーキテクチャを設計する。
論文 参考訳(メタデータ) (2020-07-08T21:38:29Z) - AP-MTL: Attention Pruned Multi-task Learning Model for Real-time
Instrument Detection and Segmentation in Robot-assisted Surgery [23.33984309289549]
高解像度画像の検出とセグメンテーションのためのリアルタイムロボットシステムの訓練は、限られた計算資源で難しい問題となる。
重み付きエンコーダとタスク認識検出とセグメンテーションデコーダを備えた,エンドツーエンドのトレーニング可能なリアルタイムマルチタスク学習モデルを開発した。
我々のモデルは最先端のセグメンテーションモデルや検出モデルよりも優れており、最も優れたモデルもその課題である。
論文 参考訳(メタデータ) (2020-03-10T14:24:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。