論文の概要: 3D endoscopic depth estimation using 3D surface-aware constraints
- arxiv url: http://arxiv.org/abs/2203.02131v1
- Date: Fri, 4 Mar 2022 04:47:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-07 14:36:01.283175
- Title: 3D endoscopic depth estimation using 3D surface-aware constraints
- Title(参考訳): 3次元表面認識制約を用いた三次元内視鏡深度推定
- Authors: Shang Zhao, Ce Wang, Qiyuan Wang, Yanzhe Liu, S Kevin Zhou
- Abstract要約: 深度推定は3次元表面から行うことができることを示す。
本研究では,表面認識制約を統合した深度推定のための損失関数を提案する。
カメラパラメータは、深さ推定の制御と透明性を高めるために、トレーニングパイプラインに組み込まれる。
- 参考スコア(独自算出の注目度): 16.161276518580262
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robotic-assisted surgery allows surgeons to conduct precise surgical
operations with stereo vision and flexible motor control. However, the lack of
3D spatial perception limits situational awareness during procedures and
hinders mastering surgical skills in the narrow abdominal space. Depth
estimation, as a representative perception task, is typically defined as an
image reconstruction problem. In this work, we show that depth estimation can
be reformed from a 3D surface perspective. We propose a loss function for depth
estimation that integrates the surface-aware constraints, leading to a faster
and better convergence with the valid information from spatial information. In
addition, camera parameters are incorporated into the training pipeline to
increase the control and transparency of the depth estimation. We also
integrate a specularity removal module to recover more buried image
information. Quantitative experimental results on endoscopic datasets and user
studies with medical professionals demonstrate the effectiveness of our method.
- Abstract(参考訳): ロボット支援手術により、外科医はステレオビジョンと柔軟な運動制御で正確な手術を行うことができる。
しかし, 3次元空間知覚の欠如は手術中の状況認識を制限し, 狭い腹部空間での手術スキルの習得を妨げている。
奥行き推定は、代表的な知覚課題として、通常、画像再構成問題として定義される。
本研究では, 深さ推定を3次元的視点から再構成できることを示す。
本研究では,表面認識制約を統合した深度推定のための損失関数を提案し,空間情報からの有効情報へのより高速な収束を実現する。
さらに、カメラパラメータがトレーニングパイプラインに組み込まれ、深さ推定の制御と透明性が向上する。
また,より多くの埋設画像情報を復元するために,スペキュラリティ除去モジュールも統合した。
医療従事者による内視鏡的データセットとユーザスタディの定量的実験により,本手法の有効性が示された。
関連論文リスト
- Endo-4DGS: Endoscopic Monocular Scene Reconstruction with 4D Gaussian
Splatting [12.951997168433895]
動的シーン再構築は、下流の作業を大幅に強化し、手術結果を改善することができる。
NeRFベースの手法は、最近、シーンを再構築する異常な能力で有名になった。
本研究では,リアルタイムな内視鏡的動的再構成手法であるEndo-4DGSを提案する。
論文 参考訳(メタデータ) (2024-01-29T18:55:29Z) - Dense 3D Reconstruction Through Lidar: A Comparative Study on Ex-vivo
Porcine Tissue [16.786601606755013]
研究者たちは、視覚に基づく手術支援のための深度検知と3D再構成を積極的に研究している。
腹腔鏡下手術では, リアルタイム, 正確, 堅牢な3次元表示が困難である。
この研究は、3Dレーザーによる飛行時間センサーが解剖学的表面の再構成を行うことができる品質を徹底的に特徴付けるために、生き残ったブタの組織を定量的に検査する。
論文 参考訳(メタデータ) (2024-01-19T14:14:26Z) - Robust Geometry-Preserving Depth Estimation Using Differentiable
Rendering [93.94371335579321]
我々は、余分なデータやアノテーションを必要とせずに、幾何学保存深度を予測するためにモデルを訓練する学習フレームワークを提案する。
包括的な実験は、我々のフレームワークの優れた一般化能力を強調します。
我々の革新的な損失関数は、ドメイン固有のスケール・アンド・シフト係数を自律的に復元するモデルを可能にします。
論文 参考訳(メタデータ) (2023-09-18T12:36:39Z) - Next-generation Surgical Navigation: Marker-less Multi-view 6DoF Pose
Estimation of Surgical Instruments [66.74633676595889]
静止カメラとヘッドマウントカメラを組み合わせたマルチカメラ・キャプチャー・セットアップを提案する。
第2に,手術用ウェットラボと実際の手術用劇場で撮影された元脊椎手術のマルチビューRGB-Dビデオデータセットを公表した。
第3に,手術器具の6DoFポーズ推定の課題に対して,最先端のシングルビューとマルチビューの3つの手法を評価した。
論文 参考訳(メタデータ) (2023-05-05T13:42:19Z) - A Temporal Learning Approach to Inpainting Endoscopic Specularities and
Its effect on Image Correspondence [13.25903945009516]
本稿では,時間的生成的対位ネットワーク(GAN)を用いて,隠蔽解剖学を特異性の下で描くことを提案する。
これは、胃内視鏡(Hyper-Kvasir)の生検データを用いて、完全に教師なしの方法で達成される。
また,3次元再構成とカメラモーション推定の基盤となるコンピュータビジョンタスクにおける本手法の有効性を評価する。
論文 参考訳(メタデータ) (2022-03-31T13:14:00Z) - Stereo Dense Scene Reconstruction and Accurate Laparoscope Localization
for Learning-Based Navigation in Robot-Assisted Surgery [37.14020061063255]
微小侵襲手術(MIS)における解剖情報と腹腔鏡位置の計算はロボット支援手術ナビゲーションの基本ブロックである
本稿では,複雑な解剖学的構造の3次元再構成による画像誘導腹腔鏡像の局在化を実現するための学習駆動型フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-08T06:12:18Z) - Self-Supervised Depth Completion for Active Stereo [55.79929735390945]
アクティブステレオシステムは、低コストで高品質な深度マップのため、ロボット産業で広く利用されている。
これらの深度センサーはステレオアーチファクトに悩まされており、密度の深い深度推定を提供していない。
本稿では, 高精度な深度マップを推定するアクティブステレオシステムのための, 自己監督型深度補完法を提案する。
論文 参考訳(メタデータ) (2021-10-07T07:33:52Z) - Adversarial Domain Feature Adaptation for Bronchoscopic Depth Estimation [111.89519571205778]
そこで本研究では,深度推定のためのドメイン適応手法を提案する。
提案する2段階構造は,まず,ラベル付き合成画像を用いた深度推定ネットワークを教師付きで訓練する。
実験の結果,提案手法は実画像上でのネットワーク性能をかなりの差で向上させることがわかった。
論文 参考訳(メタデータ) (2021-09-24T08:11:34Z) - 3-Dimensional Deep Learning with Spatial Erasing for Unsupervised
Anomaly Segmentation in Brain MRI [55.97060983868787]
我々は,MRIボリュームと空間消去を組み合わせた空間文脈の増大が,教師なしの異常セグメンテーション性能の向上に繋がるかどうかを検討する。
本稿では,2次元変分オートエンコーダ(VAE)と3次元の相違点を比較し,3次元入力消去を提案し,データセットサイズが性能に与える影響を体系的に検討する。
入力消去による最高の3D VAEは、平均DICEスコアが31.40%となり、2D VAEは25.76%となった。
論文 参考訳(メタデータ) (2021-09-14T09:17:27Z) - Self-Supervised Generative Adversarial Network for Depth Estimation in
Laparoscopic Images [13.996932179049978]
本稿では,ジェネレーティブ・ディバイサル・ネットワークに基づく自己教師型深度推定手法であるSADepthを提案する。
エンコーダデコーダジェネレータと、トレーニング中に幾何学的制約を組み込む識別器で構成される。
2つの公開データセットの実験により、SADepthは最新の最先端の教師なし手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2021-07-09T19:40:20Z) - Searching for Efficient Architecture for Instrument Segmentation in
Robotic Surgery [58.63306322525082]
ほとんどのアプリケーションは、高解像度の外科画像の正確なリアルタイムセグメンテーションに依存している。
我々は,高解像度画像のリアルタイム推論を行うために調整された,軽量で高効率なディープ残差アーキテクチャを設計する。
論文 参考訳(メタデータ) (2020-07-08T21:38:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。