論文の概要: A geometry-aware deep network for depth estimation in monocular
endoscopy
- arxiv url: http://arxiv.org/abs/2304.10241v1
- Date: Thu, 20 Apr 2023 11:59:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-21 13:42:58.630289
- Title: A geometry-aware deep network for depth estimation in monocular
endoscopy
- Title(参考訳): 単眼内視鏡における深度推定のための幾何認識深層ネットワーク
- Authors: Yongming Yang, Shuwei Shao, Tao Yang, Peng Wang, Zhuo Yang, Chengdong
Wu, Hao Liu
- Abstract要約: 提案手法は,異なるデータセットと臨床画像にまたがって広範囲に検証されている。
提案法の平均RMSE値は12.604(T1-L1)、9.930(T2-L2)、13.893(Colon)である。
- 参考スコア(独自算出の注目度): 17.425158094539462
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Monocular depth estimation is critical for endoscopists to perform spatial
perception and 3D navigation of surgical sites. However, most of the existing
methods ignore the important geometric structural consistency, which inevitably
leads to performance degradation and distortion of 3D reconstruction. To
address this issue, we introduce a gradient loss to penalize edge fluctuations
ambiguous around stepped edge structures and a normal loss to explicitly
express the sensitivity to frequently small structures, and propose a geometric
consistency loss to spreads the spatial information across the sample grids to
constrain the global geometric anatomy structures. In addition, we develop a
synthetic RGB-Depth dataset that captures the anatomical structures under
reflections and illumination variations. The proposed method is extensively
validated across different datasets and clinical images and achieves mean RMSE
values of 0.066 (stomach), 0.029 (small intestine), and 0.139 (colon) on the
EndoSLAM dataset. The generalizability of the proposed method achieves mean
RMSE values of 12.604 (T1-L1), 9.930 (T2-L2), and 13.893 (T3-L3) on the
ColonDepth dataset. The experimental results show that our method exceeds
previous state-of-the-art competitors and generates more consistent depth maps
and reasonable anatomical structures. The quality of intraoperative 3D
structure perception from endoscopic videos of the proposed method meets the
accuracy requirements of video-CT registration algorithms for endoscopic
navigation. The dataset and the source code will be available at
https://github.com/YYM-SIA/LINGMI-MR.
- Abstract(参考訳): 単眼深度推定は,外科的部位の空間的知覚と3次元ナビゲーションを行うために重要である。
しかし、既存の手法の多くは重要な幾何学的構造的整合性を無視し、必然的に3次元再構成の性能劣化と歪みを引き起こす。
この問題に対処するために,ステップエッジ構造に不明瞭なエッジ変動をペナライズする勾配損失と,頻繁な小さな構造に対する感度を明示する正規損失を導入し,グローバルな幾何学的解剖構造を制約するためにサンプルグリッドに空間情報を分散する幾何整合損失を提案する。
さらに, 反射および照明変動下で解剖学的構造を捉える合成RGB-Depthデータセットを開発した。
提案手法は,異なるデータセットおよび臨床画像に対して広範囲に検証され,エンドSLAMデータセットの平均RMSE値は0.066(胃),0.029(小腸),0.139(大腸)となる。
平均rmse値はコロンディフデータセット上で12.604 (t1-l1), 9.930 (t2-l2), 13.893 (t3-l3) である。
実験結果から,本手法は従来の競合より優れ,より一貫した深度マップと合理的な解剖構造を生成することがわかった。
本手法の内視鏡的映像からの術中3次元構造知覚の質は,内視鏡ナビゲーションのためのビデオCT登録アルゴリズムの精度要件を満たす。
データセットとソースコードはhttps://github.com/YYM-SIA/INGMI-MRで入手できる。
関連論文リスト
- ToDER: Towards Colonoscopy Depth Estimation and Reconstruction with Geometry Constraint Adaptation [67.22294293695255]
そこで本稿では,ToDERという双方向適応アーキテクチャを用いて,高精度な深度推定を行う新しいパイプラインを提案する。
以上の結果から,本手法は実写および合成大腸内視鏡ビデオの深度マップを精度良く予測できることが示唆された。
論文 参考訳(メタデータ) (2024-07-23T14:24:26Z) - A Quantitative Evaluation of Dense 3D Reconstruction of Sinus Anatomy
from Monocular Endoscopic Video [8.32570164101507]
内視鏡的シーケンスと光学的トラッキングを用いた洞再建のための自己教師型アプローチの定量的解析を行った。
以上の結果から, 生成した復元は解剖学的に高い一致を示し, 平均点間誤差は0.91mmであった。
ポーズと深さ推定の不正確さがこの誤りに等しく寄与し、より短い軌跡を持つ局所的に一貫したシーケンスがより正確な再構成をもたらすことを確認した。
論文 参考訳(メタデータ) (2023-10-22T17:11:40Z) - $E(3) \times SO(3)$-Equivariant Networks for Spherical Deconvolution in
Diffusion MRI [4.726777092009554]
本稿では,各ボクセルが球面信号を含むボリュームのスパースデコンボリューションの枠組みを提案する。
この研究は、空間回転、反射、翻訳の対称性に関する同変深層を構成する。
論文 参考訳(メタデータ) (2023-04-12T18:37:32Z) - Enforcing connectivity of 3D linear structures using their 2D
projections [54.0598511446694]
本稿では,2次元投影におけるトポロジ認識損失の総和を最小化することにより,結果の3次元接続性を改善することを提案する。
これにより、精度の向上と、アノテーション付きトレーニングデータの提供に必要なアノテーションの労力の削減が図られる。
論文 参考訳(メタデータ) (2022-07-14T11:42:18Z) - Deep Implicit Statistical Shape Models for 3D Medical Image Delineation [47.78425002879612]
解剖学的構造の3次元デライン化は、医用画像解析の基本的な目標である。
ディープラーニング以前は、解剖学的制約を課し高品質の表面を作り出す統計的形状モデルはコア技術だった。
我々は,CNNの表現力とSSMの頑健さを合体させるデライン化の新しい手法であるディープ暗黙的統計的形状モデル(DISSMs)を提案する。
論文 参考訳(メタデータ) (2021-04-07T01:15:06Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z) - 3D Dense Geometry-Guided Facial Expression Synthesis by Adversarial
Learning [54.24887282693925]
本稿では,3次元密度(深度,表面正規度)情報を表現操作に用いる新しいフレームワークを提案する。
既製の最先端3D再構成モデルを用いて深度を推定し,大規模RGB-Depthデータセットを作成する。
実験により,提案手法は競争ベースラインと既存の芸術を大きなマージンで上回ることを示した。
論文 参考訳(メタデータ) (2020-09-30T17:12:35Z) - Deep Volumetric Universal Lesion Detection using Light-Weight Pseudo 3D
Convolution and Surface Point Regression [23.916776570010285]
コンピュータ支援型病変/重要なフィンディング検出技術は、医療画像の核心にある。
そこで本研究では,(1) P3DC演算子を組み込んだ深層アンカーフリーワンステージVULDフレームワークを提案する。
3次元病変の空間範囲を効果的に抑圧する新しいSPR法は、その代表的キーポイントを病変表面にピンポイントすることで実現される。
論文 参考訳(メタデータ) (2020-08-30T19:42:06Z) - Appearance Learning for Image-based Motion Estimation in Tomography [60.980769164955454]
トモグラフィー画像では、取得した信号に擬似逆フォワードモデルを適用することにより、解剖学的構造を再構成する。
患者の動きは、復元過程における幾何学的アライメントを損なうため、運動アーティファクトが生じる。
本研究では,スキャン対象から独立して剛性運動の構造を認識する外観学習手法を提案する。
論文 参考訳(メタデータ) (2020-06-18T09:49:11Z) - Limited Angle Tomography for Transmission X-Ray Microscopy Using Deep
Learning [12.991428974915795]
深層学習は、X線顕微鏡で初めて限られた角度再構成に適用される。
バイオメディカルイメージングにおける最先端のニューラルネットワークであるU-Netは、合成データからトレーニングされている。
提案法は, クロレラ細胞における細胞内構造の3次元可視化を著しく改善する。
論文 参考訳(メタデータ) (2020-01-08T12:11:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。