論文の概要: Endo-Depth-and-Motion: Localization and Reconstruction in Endoscopic
Videos using Depth Networks and Photometric Constraints
- arxiv url: http://arxiv.org/abs/2103.16525v1
- Date: Tue, 30 Mar 2021 17:29:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-31 15:05:02.587804
- Title: Endo-Depth-and-Motion: Localization and Reconstruction in Endoscopic
Videos using Depth Networks and Photometric Constraints
- Title(参考訳): 奥行きと運動:奥行きネットワークと光度制約を用いた内視鏡映像の局所化と再構成
- Authors: David Recasens, Jos\'e Lamarca, Jos\'e M. F\'acil, J. M. M. Montiel,
Javier Civera
- Abstract要約: シーンの再構築と、身体内の動画からのカメラの動きの推定は、いくつかの要因により困難です。
このパイプラインは、単眼内視鏡映像から6度の自由度カメラポーズと高密度3Dシーンモデルを推定する。
- 参考スコア(独自算出の注目度): 12.065803181395667
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Estimating a scene reconstruction and the camera motion from in-body videos
is challenging due to several factors, e.g. the deformation of in-body cavities
or the lack of texture. In this paper we present Endo-Depth-and-Motion, a
pipeline that estimates the 6-degrees-of-freedom camera pose and dense 3D scene
models from monocular endoscopic videos. Our approach leverages recent advances
in self-supervised depth networks to generate pseudo-RGBD frames, then tracks
the camera pose using photometric residuals and fuses the registered depth maps
in a volumetric representation. We present an extensive experimental evaluation
in the public dataset Hamlyn, showing high-quality results and comparisons
against relevant baselines. We also release all models and code for future
comparisons.
- Abstract(参考訳): シーン再構成とボディビデオからのカメラモーションの推定は、いくつかの要因により困難である。
体内の空洞の変形、またはテクスチャの欠如。
本稿では,単眼内視鏡映像から6自由度カメラのポーズと密集した3dシーンモデルを推定するパイプラインであるendo-depth-and-motionを提案する。
提案手法は, 自監督深度ネットワークの最近の進歩を活用して擬似RGBDフレームを生成し, 光度残差を用いてカメラのポーズを追跡し, 登録深度マップを容積表現に融合させる。
公開データセットであるHamlynにおいて,高品質な結果と関連するベースラインとの比較を行った。
将来の比較のために、すべてのモデルとコードもリリースしています。
関連論文リスト
- Boost 3D Reconstruction using Diffusion-based Monocular Camera Calibration [34.18403601269181]
DM-Calibは単一の入力画像からピンホールカメラ固有のパラメータを推定するための拡散に基づくアプローチである。
我々は、カメラ画像と呼ばれる新しい画像ベース表現を導入し、数値カメラの内在を無意味に符号化する。
一つのRGB入力からカメラ画像を生成するための安定拡散モデルを微調整することにより、RANSAC操作を介してカメラ固有の特徴を抽出することができる。
論文 参考訳(メタデータ) (2024-11-26T09:04:37Z) - FrozenRecon: Pose-free 3D Scene Reconstruction with Frozen Depth Models [67.96827539201071]
本稿では,3次元シーン再構成のための新しいテスト時間最適化手法を提案する。
本手法は5つのゼロショットテストデータセット上で,最先端のクロスデータセット再構築を実現する。
論文 参考訳(メタデータ) (2023-08-10T17:55:02Z) - The Drunkard's Odometry: Estimating Camera Motion in Deforming Scenes [79.00228778543553]
このデータセットは、3Dシーンの中で地上の真実を語る最初の大規模なカメラ軌道である。
リアルな3Dビルディングのシミュレーションでは、膨大な量のデータと地上の真実のラベルが得られます。
本稿では,光学的フロー推定を剛体カメラ運動に分解するDrunkard's Odometryと呼ばれる,変形可能な新しいオドメトリー法を提案する。
論文 参考訳(メタデータ) (2023-06-29T13:09:31Z) - Towards 3D Scene Reconstruction from Locally Scale-Aligned Monocular
Video Depth [90.33296913575818]
映像深度推定や映像からの3次元シーン再構成のようなビデオベースのシナリオでは、フレームごとの予測における未知のスケールとシフトが深度の不整合を引き起こす可能性がある。
局所重み付き線形回帰法を提案する。
提案手法は,複数のゼロショットベンチマークにおいて,既存の最先端手法の性能を50%向上させることができる。
論文 参考訳(メタデータ) (2022-02-03T08:52:54Z) - Wide-angle Image Rectification: A Survey [86.36118799330802]
広角画像は、基礎となるピンホールカメラモデルに反する歪みを含む。
これらの歪みを補正することを目的とした画像修正は、これらの問題を解決することができる。
本稿では、異なるアプローチで使用されるカメラモデルについて、詳細な説明と議論を行う。
次に,従来の幾何学に基づく画像修正手法と深層学習法の両方について検討する。
論文 参考訳(メタデータ) (2020-10-30T17:28:40Z) - Self-Attention Dense Depth Estimation Network for Unrectified Video
Sequences [6.821598757786515]
LiDARとレーダーセンサーはリアルタイム深度推定のためのハードウェアソリューションである。
深層学習に基づく自己教師付き深度推定法は有望な結果を示した。
未修正画像に対する自己注意に基づく深度・自我移動ネットワークを提案する。
論文 参考訳(メタデータ) (2020-05-28T21:53:53Z) - Consistent Video Depth Estimation [57.712779457632024]
モノクロ映像中の全画素に対して, 密度, 幾何的に整合した深度を再構成するアルゴリズムを提案する。
動画中の画素の幾何的制約を確立するために、従来の動きから再構成した構造を利用する。
我々のアルゴリズムは、手持ちの映像をある程度のダイナミックな動きで処理することができる。
論文 参考訳(メタデータ) (2020-04-30T17:59:26Z) - Video Depth Estimation by Fusing Flow-to-Depth Proposals [65.24533384679657]
本稿では,映像深度推定のためのフロー・ツー・ディープス・レイヤの異なる手法を提案する。
モデルは、フロー・トゥ・ディープス層、カメラ・ポーズ・リファインメント・モジュール、ディープ・フュージョン・ネットワークから構成される。
提案手法は,最先端の深度推定法より優れ,合理的なデータセット一般化能力を有する。
論文 参考訳(メタデータ) (2019-12-30T10:45:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。