論文の概要: Real-time Surgical Environment Enhancement for Robot-Assisted Minimally
Invasive Surgery Based on Super-Resolution
- arxiv url: http://arxiv.org/abs/2011.04003v1
- Date: Sun, 8 Nov 2020 15:40:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 08:44:51.465825
- Title: Real-time Surgical Environment Enhancement for Robot-Assisted Minimally
Invasive Surgery Based on Super-Resolution
- Title(参考訳): 超解像に基づくロボット支援低侵襲手術のリアルタイム手術環境向上
- Authors: Ruoxi Wang, Dandan Zhang, Qingbiao Li, Xiao-Yun Zhou, Benny Lo
- Abstract要約: 本稿では,GAN(Generative Adversarial Network)に基づくビデオ超解像法を提案し,自動ズーム比調整のためのフレームワークを構築する。
外科手術中の関心領域(ROI)の高品質な可視化のために、自動リアルタイムズームを提供する。
- 参考スコア(独自算出の注目度): 18.696539908774454
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In Robot-Assisted Minimally Invasive Surgery (RAMIS), a camera assistant is
normally required to control the position and zooming ratio of the laparoscope,
following the surgeon's instructions. However, moving the laparoscope
frequently may lead to unstable and suboptimal views, while the adjustment of
zooming ratio may interrupt the workflow of the surgical operation. To this
end, we propose a multi-scale Generative Adversarial Network (GAN)-based video
super-resolution method to construct a framework for automatic zooming ratio
adjustment. It can provide automatic real-time zooming for high-quality
visualization of the Region Of Interest (ROI) during the surgical operation. In
the pipeline of the framework, the Kernel Correlation Filter (KCF) tracker is
used for tracking the tips of the surgical tools, while the Semi-Global Block
Matching (SGBM) based depth estimation and Recurrent Neural Network (RNN)-based
context-awareness are developed to determine the upscaling ratio for zooming.
The framework is validated with the JIGSAW dataset and Hamlyn Centre
Laparoscopic/Endoscopic Video Datasets, with results demonstrating its
practicability.
- Abstract(参考訳): Robot-Assisted Minimally Invasive Surgery (RAMIS)では、通常、外科医の指示に従って腹腔鏡の位置とズーム比を制御するためにカメラアシスタントが必要とされる。
しかし,腹腔鏡を頻繁に移動させると,不安定で至適な視認が得られ,ズーム率の調整が手術のワークフローを阻害する可能性がある。
そこで本研究では,GAN(Generative Adversarial Network)に基づくマルチスケールビデオ超解像法を提案し,自動ズーム比調整のためのフレームワークを構築した。
外科手術中の関心領域(ROI)の高品質な可視化のために、自動リアルタイムズームを提供する。
このフレームワークのパイプラインでは、カーネル相関フィルタ(kcf)トラッカが手術用具の先端を追跡し、半グローバルブロックマッチング(sgbm)ベースの深さ推定とrnn(recurrent neural network)ベースのコンテキストアウェアネスを開発し、ズームのスケールアップ率を決定する。
このフレームワークは、JIGSAWデータセットとHamlyn Centre Laparoscopic/Endoscopic Video Datasetsで検証されており、その実践性を示している。
関連論文リスト
- Seamless Augmented Reality Integration in Arthroscopy: A Pipeline for Articular Reconstruction and Guidance [4.8046407905667206]
関節鏡は、関節疾患の診断と治療に用いられる、最小侵襲の外科手術である。
関節鏡の視野の制限と深度知覚の欠如は、複雑な関節構造をナビゲートする上での課題となる。
本稿では, 局所化とマッピング, 深さ推定, 3次元ガウススプラッティングを併用したロバストパイプラインを提案する。
我々のソリューションは、関節ノッチ計測とアノテーションアンカーのためのARアシストを提供する。
論文 参考訳(メタデータ) (2024-10-01T04:15:49Z) - Deep intra-operative illumination calibration of hyperspectral cameras [73.08443963791343]
ハイパースペクトルイメージング (HSI) は, 様々な手術応用に期待できる新しい画像モダリティとして出現している。
手術室における照明条件の動的変化がHSIアプリケーションの性能に劇的な影響を及ぼすことを示す。
手術中におけるハイパースペクトル画像の自動再構成のための新しい学習ベースアプローチを提案する。
論文 参考訳(メタデータ) (2024-09-11T08:30:03Z) - FLex: Joint Pose and Dynamic Radiance Fields Optimization for Stereo Endoscopic Videos [79.50191812646125]
内視鏡的シーンの再構築は、外科手術後の分析から教育訓練まで、様々な医療応用にとって重要な要素である。
変形組織の非常にダイナミックな環境下での移動内視鏡の挑戦的なセットアップに着目する。
複数重重なり合う4次元ニューラルラジアンスフィールド(NeRF)への暗黙的なシーン分離と、再構成とカメラのスクラッチからのポーズを協調的に最適化するプログレッシブ最適化手法を提案する。
これにより、使いやすさが向上し、5000フレーム以上の手術ビデオの処理に間に合うように復元能力を拡張できる。
論文 参考訳(メタデータ) (2024-03-18T19:13:02Z) - Monocular Microscope to CT Registration using Pose Estimation of the
Incus for Augmented Reality Cochlear Implant Surgery [3.8909273404657556]
本研究では, 外部追跡装置を必要とせず, 2次元から3次元の観察顕微鏡映像を直接CTスキャンに登録する手法を開発した。
その結果, x, y, z軸の平均回転誤差は25度未満, 翻訳誤差は2mm, 3mm, 0.55%であった。
論文 参考訳(メタデータ) (2024-03-12T00:26:08Z) - Phase-Specific Augmented Reality Guidance for Microscopic Cataract
Surgery Using Long-Short Spatiotemporal Aggregation Transformer [14.568834378003707]
乳化白内障手術(英: Phaemulsification cataract surgery, PCS)は、外科顕微鏡を用いた外科手術である。
PCS誘導システムは、手術用顕微鏡映像から貴重な情報を抽出し、熟練度を高める。
既存のPCSガイダンスシステムでは、位相特異なガイダンスに悩まされ、冗長な視覚情報に繋がる。
本稿では,認識された手術段階に対応するAR情報を提供する,新しい位相特異的拡張現実(AR)誘導システムを提案する。
論文 参考訳(メタデータ) (2023-09-11T02:56:56Z) - Neural LerPlane Representations for Fast 4D Reconstruction of Deformable
Tissues [52.886545681833596]
LerPlaneは単一視点環境下での手術シーンの高速かつ正確な再構築手法である。
LerPlaneは外科手術を4Dボリュームとして扱い、静的および動的フィールドの明示的な2D平面に分解する。
LerPlaneは静的フィールドを共有し、動的組織モデリングのワークロードを大幅に削減する。
論文 参考訳(メタデータ) (2023-05-31T14:38:35Z) - LoViT: Long Video Transformer for Surgical Phase Recognition [59.06812739441785]
短時間・長期の時間情報を融合する2段階のLong Video Transformer(LoViT)を提案する。
このアプローチは、Colec80とAutoLaparoデータセットの最先端メソッドを一貫して上回る。
論文 参考訳(メタデータ) (2023-05-15T20:06:14Z) - Monitoring MBE substrate deoxidation via RHEED image-sequence analysis
by deep learning [62.997667081978825]
本稿では,深層学習に基づくRHEED画像系列分類を用いたMBEにおけるGaAs基板脱酸化の自動監視手法を提案する。
提案手法は,機能抽出のための非教師付きオートエンコーダ(AE)と,教師付き畳み込みネットワークを組み合わせたものである。
論文 参考訳(メタデータ) (2022-10-07T10:01:06Z) - Synthetic and Real Inputs for Tool Segmentation in Robotic Surgery [10.562627972607892]
腹腔鏡画像と組み合わせたロボットキネマティックデータを用いてラベル付け問題を緩和できる可能性が示唆された。
腹腔鏡画像とシミュレーション画像の並列処理のための新しい深層学習モデルを提案する。
論文 参考訳(メタデータ) (2020-07-17T16:33:33Z) - Searching for Efficient Architecture for Instrument Segmentation in
Robotic Surgery [58.63306322525082]
ほとんどのアプリケーションは、高解像度の外科画像の正確なリアルタイムセグメンテーションに依存している。
我々は,高解像度画像のリアルタイム推論を行うために調整された,軽量で高効率なディープ残差アーキテクチャを設計する。
論文 参考訳(メタデータ) (2020-07-08T21:38:29Z) - Towards Better Surgical Instrument Segmentation in Endoscopic Vision:
Multi-Angle Feature Aggregation and Contour Supervision [22.253074722129053]
本稿では、現在のディープニューラルネットワーク(DNN)セグメンテーションモデルを改善するための汎用的な埋め込み可能なアプローチを提案する。
本手法は,外科医の手術から収集したSinus-Surgeryデータセットのアブレーション実験により検証した。
論文 参考訳(メタデータ) (2020-02-25T05:28:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。