論文の概要: 3D Densification for Multi-Map Monocular VSLAM in Endoscopy
- arxiv url: http://arxiv.org/abs/2503.14346v1
- Date: Tue, 18 Mar 2025 15:25:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-19 14:15:44.321380
- Title: 3D Densification for Multi-Map Monocular VSLAM in Endoscopy
- Title(参考訳): 内視鏡用マルチマップ単分子VSLAMの3次元密度化
- Authors: X. Anadón, Javier Rodríguez-Puigvert, J. M. M. Montiel,
- Abstract要約: そこで本研究では, スパース内視鏡用マルチマップCudaSIFT-SLAMにおいて, 外れ値を取り除き, 最先端の地図を高密度化する手法を提案する。
本システムでは, 単分子深度推定における固有スケールのあいまいさを軽減し, オフレーヤをフィルタし, 信頼性の高い3次元地図を作成する。
- 参考スコア(独自算出の注目度): 2.66269503676104
- License:
- Abstract: Multi-map Sparse Monocular visual Simultaneous Localization and Mapping applied to monocular endoscopic sequences has proven efficient to robustly recover tracking after the frequent losses in endoscopy due to motion blur, temporal occlusion, tools interaction or water jets. The sparse multi-maps are adequate for robust camera localization, however they are very poor for environment representation, they are noisy, with a high percentage of inaccurately reconstructed 3D points, including significant outliers, and more importantly with an unacceptable low density for clinical applications. We propose a method to remove outliers and densify the maps of the state of the art for sparse endoscopy multi-map CudaSIFT-SLAM. The NN LightDepth for up-to-scale depth dense predictions are aligned with the sparse CudaSIFT submaps by means of the robust to spurious LMedS. Our system mitigates the inherent scale ambiguity in monocular depth estimation while filtering outliers, leading to reliable densified 3D maps. We provide experimental evidence of accurate densified maps 4.15 mm RMS accuracy at affordable computing time in the C3VD phantom colon dataset. We report qualitative results on the real colonoscopy from the Endomapper dataset.
- Abstract(参考訳): 単眼内視鏡検査に応用した多眼一眼一眼視像の同時像定位とマッピングは, 運動障害, 側頭閉塞, ツールインタラクション, 水ジェットによる内視鏡検査における頻繁な障害後の追跡を効果的に回復することが証明された。
スパース・マルチマップは、ロバストカメラのローカライゼーションに適しているが、環境表現には非常に貧弱であり、ノイズが多く、重要なアウトリーチを含む不正確な3Dポイントの割合が高く、さらに臨床応用には許容できない低密度である。
スパース内視鏡用マルチマップCudaSIFT-SLAMにおいて,オフ値の除去と最先端の地図の密度化を行う手法を提案する。
NN LightDepth for up-to-scale depth dense predictions isaligned with the sparse CudaSIFT submaps by the robust to spurious LMedS。
本システムでは, 単分子深度推定における固有スケールのあいまいさを軽減し, オフレーヤをフィルタし, 信頼性の高い3次元地図を作成する。
我々は,C3VDファントム大腸データセットにおいて,安価に計算できる精度4.15mm RMSの精度を示す実験的な証拠を提供する。
本研究は,Endomapper データセットを用いた実大腸内視鏡検査の質的結果について報告する。
関連論文リスト
- EndoPerfect: High-Accuracy Monocular Depth Estimation and 3D Reconstruction for Endoscopic Surgery via NeRF-Stereo Fusion [11.798218793025974]
内視鏡下副鼻腔手術(ESS)では,術中CTは術中評価に有用であるが,着床速度や放射線曝露に制約がある。
既存の技術は、しばしば密度の高い再建に必要なサブミリ精度を達成するのに苦労する。
本稿では,Neural Radiance Fields(NeRF)を中間表現として活用するオンライン学習手法を提案する。
提案手法では,0.5mm未満の点間精度が0.125$pm$0.443mmであることを示す。
論文 参考訳(メタデータ) (2024-10-05T05:26:21Z) - ToDER: Towards Colonoscopy Depth Estimation and Reconstruction with Geometry Constraint Adaptation [67.22294293695255]
そこで本稿では,ToDERという双方向適応アーキテクチャを用いて,高精度な深度推定を行う新しいパイプラインを提案する。
以上の結果から,本手法は実写および合成大腸内視鏡ビデオの深度マップを精度良く予測できることが示唆された。
論文 参考訳(メタデータ) (2024-07-23T14:24:26Z) - CudaSIFT-SLAM: multiple-map visual SLAM for full procedure mapping in real human endoscopy [4.129225533930965]
CudaSIFT-SLAMは人間の大腸全摘をリアルタイムで処理できる最初のV-SLAMシステムである。
我々は,C3VDファントム結腸データセットと,Endomapperデータセットからの完全な実大腸内視鏡で本システムをベンチマークした。
我々のシステムは,C3VDデータセットのフレームの88%をリアルタイムでマッピングすることに成功した。
論文 参考訳(メタデータ) (2024-05-27T08:26:19Z) - A geometry-aware deep network for depth estimation in monocular
endoscopy [17.425158094539462]
提案手法は,異なるデータセットと臨床画像にまたがって広範囲に検証されている。
提案法の平均RMSE値は12.604(T1-L1)、9.930(T2-L2)、13.893(Colon)である。
論文 参考訳(メタデータ) (2023-04-20T11:59:32Z) - Self-Supervised Depth Estimation in Laparoscopic Image using 3D
Geometric Consistency [7.902636435901286]
立体対に隠された3次元構造情報を利用する自己教師型深度推定器M3Depthを提案する。
提案手法は,公開データセットと新たに取得したデータセットの両方において,従来の自己教師型アプローチよりも大きなマージンで優れていた。
論文 参考訳(メタデータ) (2022-08-17T17:03:48Z) - Orthogonal Matrix Retrieval with Spatial Consensus for 3D Unknown-View
Tomography [58.60249163402822]
未知視トモグラフィ(UVT)は、未知のランダムな向きで2次元投影から3次元密度マップを再構成する。
提案したOMRはより堅牢で、従来の最先端のOMRアプローチよりも大幅に性能が向上している。
論文 参考訳(メタデータ) (2022-07-06T21:40:59Z) - TANDEM: Tracking and Dense Mapping in Real-time using Deep Multi-view
Stereo [55.30992853477754]
本稿では,リアルタイムな単分子追跡と高密度フレームワークであるTANDEMを紹介する。
ポーズ推定のために、TANDEMはアライメントのスライディングウィンドウに基づいて光度バンドル調整を行う。
TANDEMは最先端のリアルタイム3D再構成性能を示す。
論文 参考訳(メタデータ) (2021-11-14T19:01:02Z) - SERV-CT: A disparity dataset from CT for validation of endoscopic 3D
reconstruction [8.448866668577946]
CT(SERV-CT)に基づく立体内視鏡再構成検証データセットを提案する。
SERV-CTデータセットは、内視鏡画像の大部分をカバーするスムーズな参照格差と深さを持つ外科的アプリケーションのための使いやすい立体的検証を提供します。
論文 参考訳(メタデータ) (2020-12-22T01:28:30Z) - Adaptive confidence thresholding for monocular depth estimation [83.06265443599521]
本稿では,自己教師付ステレオマッチング法から生成されたステレオ画像の擬似地上真実深度マップを利用する新しい手法を提案する。
擬似地底深度マップの信頼度マップを推定し、不正確な擬似地底深度マップによる性能劣化を緩和する。
実験結果から, 最先端の単分子深度推定法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-09-27T13:26:16Z) - 4D Spatio-Temporal Convolutional Networks for Object Position Estimation
in OCT Volumes [69.62333053044712]
3次元畳み込みニューラルネットワーク(CNN)は、単一のOCT画像を用いたマーカーオブジェクトのポーズ推定に有望な性能を示した。
我々は3次元CNNを4次元時間CNNに拡張し、マーカーオブジェクト追跡のための追加の時間情報の影響を評価する。
論文 参考訳(メタデータ) (2020-07-02T12:02:20Z) - OmniSLAM: Omnidirectional Localization and Dense Mapping for
Wide-baseline Multi-camera Systems [88.41004332322788]
超広視野魚眼カメラ(FOV)を用いた広視野多視点ステレオ構成のための全方向位置決めと高密度マッピングシステムを提案する。
より実用的で正確な再構築のために、全方向深度推定のための改良された軽量のディープニューラルネットワークを導入する。
我々は全方位深度推定をビジュアル・オドメトリー(VO)に統合し,大域的整合性のためのループ閉鎖モジュールを付加する。
論文 参考訳(メタデータ) (2020-03-18T05:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。