論文の概要: Real-time Surgical Environment Enhancement for Robot-Assisted Minimally
Invasive Surgery Based on Super-Resolution
- arxiv url: http://arxiv.org/abs/2011.04003v1
- Date: Sun, 8 Nov 2020 15:40:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 08:44:51.465825
- Title: Real-time Surgical Environment Enhancement for Robot-Assisted Minimally
Invasive Surgery Based on Super-Resolution
- Title(参考訳): 超解像に基づくロボット支援低侵襲手術のリアルタイム手術環境向上
- Authors: Ruoxi Wang, Dandan Zhang, Qingbiao Li, Xiao-Yun Zhou, Benny Lo
- Abstract要約: 本稿では,GAN(Generative Adversarial Network)に基づくビデオ超解像法を提案し,自動ズーム比調整のためのフレームワークを構築する。
外科手術中の関心領域(ROI)の高品質な可視化のために、自動リアルタイムズームを提供する。
- 参考スコア(独自算出の注目度): 18.696539908774454
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In Robot-Assisted Minimally Invasive Surgery (RAMIS), a camera assistant is
normally required to control the position and zooming ratio of the laparoscope,
following the surgeon's instructions. However, moving the laparoscope
frequently may lead to unstable and suboptimal views, while the adjustment of
zooming ratio may interrupt the workflow of the surgical operation. To this
end, we propose a multi-scale Generative Adversarial Network (GAN)-based video
super-resolution method to construct a framework for automatic zooming ratio
adjustment. It can provide automatic real-time zooming for high-quality
visualization of the Region Of Interest (ROI) during the surgical operation. In
the pipeline of the framework, the Kernel Correlation Filter (KCF) tracker is
used for tracking the tips of the surgical tools, while the Semi-Global Block
Matching (SGBM) based depth estimation and Recurrent Neural Network (RNN)-based
context-awareness are developed to determine the upscaling ratio for zooming.
The framework is validated with the JIGSAW dataset and Hamlyn Centre
Laparoscopic/Endoscopic Video Datasets, with results demonstrating its
practicability.
- Abstract(参考訳): Robot-Assisted Minimally Invasive Surgery (RAMIS)では、通常、外科医の指示に従って腹腔鏡の位置とズーム比を制御するためにカメラアシスタントが必要とされる。
しかし,腹腔鏡を頻繁に移動させると,不安定で至適な視認が得られ,ズーム率の調整が手術のワークフローを阻害する可能性がある。
そこで本研究では,GAN(Generative Adversarial Network)に基づくマルチスケールビデオ超解像法を提案し,自動ズーム比調整のためのフレームワークを構築した。
外科手術中の関心領域(ROI)の高品質な可視化のために、自動リアルタイムズームを提供する。
このフレームワークのパイプラインでは、カーネル相関フィルタ(kcf)トラッカが手術用具の先端を追跡し、半グローバルブロックマッチング(sgbm)ベースの深さ推定とrnn(recurrent neural network)ベースのコンテキストアウェアネスを開発し、ズームのスケールアップ率を決定する。
このフレームワークは、JIGSAWデータセットとHamlyn Centre Laparoscopic/Endoscopic Video Datasetsで検証されており、その実践性を示している。
関連論文リスト
- Monocular Microscope to CT Registration using Pose Estimation of the
Incus for Augmented Reality Cochlear Implant Surgery [3.8909273404657556]
本研究では, 外部追跡装置を必要とせず, 2次元から3次元の観察顕微鏡映像を直接CTスキャンに登録する手法を開発した。
その結果, x, y, z軸の平均回転誤差は25度未満, 翻訳誤差は2mm, 3mm, 0.55%であった。
論文 参考訳(メタデータ) (2024-03-12T00:26:08Z) - Phase-Specific Augmented Reality Guidance for Microscopic Cataract
Surgery Using Long-Short Spatiotemporal Aggregation Transformer [14.568834378003707]
乳化白内障手術(英: Phaemulsification cataract surgery, PCS)は、外科顕微鏡を用いた外科手術である。
PCS誘導システムは、手術用顕微鏡映像から貴重な情報を抽出し、熟練度を高める。
既存のPCSガイダンスシステムでは、位相特異なガイダンスに悩まされ、冗長な視覚情報に繋がる。
本稿では,認識された手術段階に対応するAR情報を提供する,新しい位相特異的拡張現実(AR)誘導システムを提案する。
論文 参考訳(メタデータ) (2023-09-11T02:56:56Z) - Neural LerPlane Representations for Fast 4D Reconstruction of Deformable
Tissues [52.886545681833596]
LerPlaneは単一視点環境下での手術シーンの高速かつ正確な再構築手法である。
LerPlaneは外科手術を4Dボリュームとして扱い、静的および動的フィールドの明示的な2D平面に分解する。
LerPlaneは静的フィールドを共有し、動的組織モデリングのワークロードを大幅に削減する。
論文 参考訳(メタデータ) (2023-05-31T14:38:35Z) - LoViT: Long Video Transformer for Surgical Phase Recognition [59.06812739441785]
短時間・長期の時間情報を融合する2段階のLong Video Transformer(LoViT)を提案する。
このアプローチは、Colec80とAutoLaparoデータセットの最先端メソッドを一貫して上回る。
論文 参考訳(メタデータ) (2023-05-15T20:06:14Z) - Monitoring MBE substrate deoxidation via RHEED image-sequence analysis
by deep learning [62.997667081978825]
本稿では,深層学習に基づくRHEED画像系列分類を用いたMBEにおけるGaAs基板脱酸化の自動監視手法を提案する。
提案手法は,機能抽出のための非教師付きオートエンコーダ(AE)と,教師付き畳み込みネットワークを組み合わせたものである。
論文 参考訳(メタデータ) (2022-10-07T10:01:06Z) - Domain Adaptive Robotic Gesture Recognition with Unsupervised
Kinematic-Visual Data Alignment [60.31418655784291]
本稿では,マルチモダリティ知識,すなわちキネマティックデータとビジュアルデータを同時にシミュレータから実ロボットに伝達できる,教師なしドメイン適応フレームワークを提案する。
ビデオの時間的手がかりと、ジェスチャー認識に対するマルチモーダル固有の相関を用いて、トランスファー可能な機能を強化したドメインギャップを修復する。
その結果, 本手法は, ACCでは最大12.91%, F1scoreでは20.16%と, 実際のロボットではアノテーションを使わずに性能を回復する。
論文 参考訳(メタデータ) (2021-03-06T09:10:03Z) - Automatic Segmentation of Gross Target Volume of Nasopharynx Cancer
using Ensemble of Multiscale Deep Neural Networks with Spatial Attention [2.204996105506197]
平面内分解能と平面内分解能の差に対処する2.5次元畳み込みニューラルネットワーク(CNN)を提案する。
また,ネットワークが小さなターゲットにフォーカスできる空間的アテンションモジュールを提案し,チャネルアテンションを用いてセグメンテーション性能をさらに向上する。
論文 参考訳(メタデータ) (2021-01-27T08:20:49Z) - Synthetic and Real Inputs for Tool Segmentation in Robotic Surgery [10.562627972607892]
腹腔鏡画像と組み合わせたロボットキネマティックデータを用いてラベル付け問題を緩和できる可能性が示唆された。
腹腔鏡画像とシミュレーション画像の並列処理のための新しい深層学習モデルを提案する。
論文 参考訳(メタデータ) (2020-07-17T16:33:33Z) - Searching for Efficient Architecture for Instrument Segmentation in
Robotic Surgery [58.63306322525082]
ほとんどのアプリケーションは、高解像度の外科画像の正確なリアルタイムセグメンテーションに依存している。
我々は,高解像度画像のリアルタイム推論を行うために調整された,軽量で高効率なディープ残差アーキテクチャを設計する。
論文 参考訳(メタデータ) (2020-07-08T21:38:29Z) - LRTD: Long-Range Temporal Dependency based Active Learning for Surgical
Workflow Recognition [67.86810761677403]
本稿では,費用対効果の高い手術ビデオ解析のための新しい能動的学習法を提案する。
具体的には,非局所的再帰的畳み込みネットワーク (NL-RCNet) を提案する。
手術ワークフロー認識タスクを実行することで,大規模な手術ビデオデータセット(Cholec80)に対するアプローチを検証する。
論文 参考訳(メタデータ) (2020-04-21T09:21:22Z) - Towards Better Surgical Instrument Segmentation in Endoscopic Vision:
Multi-Angle Feature Aggregation and Contour Supervision [22.253074722129053]
本稿では、現在のディープニューラルネットワーク(DNN)セグメンテーションモデルを改善するための汎用的な埋め込み可能なアプローチを提案する。
本手法は,外科医の手術から収集したSinus-Surgeryデータセットのアブレーション実験により検証した。
論文 参考訳(メタデータ) (2020-02-25T05:28:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。