論文の概要: CamLessMonoDepth: Monocular Depth Estimation with Unknown Camera
Parameters
- arxiv url: http://arxiv.org/abs/2110.14347v1
- Date: Wed, 27 Oct 2021 10:54:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-28 14:24:28.359217
- Title: CamLessMonoDepth: Monocular Depth Estimation with Unknown Camera
Parameters
- Title(参考訳): CamLessMonoDepth:未知のカメラパラメータによる単眼深度推定
- Authors: Sai Shyam Chanduri, Zeeshan Khan Suri, Igor Vozniak, Christian
M\"uller
- Abstract要約: 単眼深度推定の最近の進歩は、深度ニューラルネットワークをトレーニングし、地中真理データを必要としない逆深度とポーズを予測することによって、単一のカメラ入力からそのような知識を得ることが可能であることを示している。
本研究では,単眼画像のみから学習することで,ピンホールカメラの内在を奥行きやポーズとともに暗黙的に推定する手法を提案する。
- 参考スコア(独自算出の注目度): 1.7499351967216341
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Perceiving 3D information is of paramount importance in many applications of
computer vision. Recent advances in monocular depth estimation have shown that
gaining such knowledge from a single camera input is possible by training deep
neural networks to predict inverse depth and pose, without the necessity of
ground truth data. The majority of such approaches, however, require camera
parameters to be fed explicitly during training. As a result, image sequences
from wild cannot be used during training. While there exist methods which also
predict camera intrinsics, their performance is not on par with novel methods
taking camera parameters as input. In this work, we propose a method for
implicit estimation of pinhole camera intrinsics along with depth and pose, by
learning from monocular image sequences alone. In addition, by utilizing
efficient sub-pixel convolutions, we show that high fidelity depth estimates
can be obtained. We also embed pixel-wise uncertainty estimation into the
framework, to emphasize the possible applicability of this work in practical
domain. Finally, we demonstrate the possibility of accurate prediction of depth
information without prior knowledge of camera intrinsics, while outperforming
the existing state-of-the-art approaches on KITTI benchmark.
- Abstract(参考訳): 3d情報を知覚することは、コンピュータビジョンの多くの応用において極めて重要である。
単眼深度推定の最近の進歩は、深度ニューラルネットワークをトレーニングし、地中真理データを必要としない逆深度とポーズを予測することによって、単一のカメラ入力からそのような知識を得ることが可能であることを示している。
しかし、そのようなアプローチの大半は、トレーニング中にカメラパラメータを明示的に供給する必要がある。
その結果、訓練中にワイルドからの画像シーケンスは使用できない。
カメラ固有性を予測する手法もあるが、その性能はカメラパラメータを入力とする新しい手法と同等ではない。
本研究では,単眼画像のみから学習することで,ピンホールカメラの内在を奥行きやポーズとともに暗黙的に推定する手法を提案する。
さらに,効率の良いサブピクセル畳み込みを利用して,高忠実度深度推定値が得られることを示す。
また,本手法の適用可能性を強調するために,画素単位の不確実性推定をフレームワークに組み込む。
最後に,kittiベンチマークにおける既存の最先端手法を上回りながら,カメラ内在性の事前知識を必要とせず,奥行き情報を正確に予測する可能性を実証する。
関連論文リスト
- Boost 3D Reconstruction using Diffusion-based Monocular Camera Calibration [34.18403601269181]
DM-Calibは単一の入力画像からピンホールカメラ固有のパラメータを推定するための拡散に基づくアプローチである。
我々は、カメラ画像と呼ばれる新しい画像ベース表現を導入し、数値カメラの内在を無意味に符号化する。
一つのRGB入力からカメラ画像を生成するための安定拡散モデルを微調整することにより、RANSAC操作を介してカメラ固有の特徴を抽出することができる。
論文 参考訳(メタデータ) (2024-11-26T09:04:37Z) - Lift-Attend-Splat: Bird's-eye-view camera-lidar fusion using transformers [39.14931758754381]
単分子深度推定を完全に回避する新しい融合法を提案する。
本モデルでは,ライダー機能の利用率に基づいて,カメラ機能の利用を調節できることが示されている。
論文 参考訳(メタデータ) (2023-12-22T18:51:50Z) - WS-SfMLearner: Self-supervised Monocular Depth and Ego-motion Estimation
on Surgical Videos with Unknown Camera Parameters [0.0]
正確で堅牢な自己監督深度とカメラエゴモーション推定システムの構築は、コンピュータビジョンコミュニティから注目を集めている。
本研究では,正確な深度マップやカメラポーズだけでなく,カメラ固有のパラメータも予測できる自己教師付き深度・エゴモーション推定システムを構築することを目的とした。
論文 参考訳(メタデータ) (2023-08-22T20:35:24Z) - Single Image Depth Prediction Made Better: A Multivariate Gaussian Take [163.14849753700682]
本稿では,画素ごとの深度を連続的にモデル化する手法を提案する。
提案手法の精度(MG)は,KITTI深度予測ベンチマークリーダーボードの上位に位置する。
論文 参考訳(メタデータ) (2023-03-31T16:01:03Z) - SC-DepthV3: Robust Self-supervised Monocular Depth Estimation for
Dynamic Scenes [58.89295356901823]
自己監督型単眼深度推定は静的な場面で顕著な結果を示した。
トレーニングネットワークのマルチビュー整合性の仮定に依存するが、動的オブジェクト領域に違反する。
単一画像の深度を事前に生成するための,外部トレーニング付き単眼深度推定モデルを提案する。
我々のモデルは、高度にダイナミックなシーンのモノクロビデオからトレーニングしても、シャープで正確な深度マップを予測できる。
論文 参考訳(メタデータ) (2022-11-07T16:17:47Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - Depth360: Monocular Depth Estimation using Learnable Axisymmetric Camera
Model for Spherical Camera Image [2.3859169601259342]
魚眼カメラ画像が2つある球面カメラ画像の歪みを受け入れる学習可能な軸対称カメラモデルを提案する。
我々は、地中真相深度画像を生成するために、フォトリアリスティックシミュレータを用いてモデルを訓練した。
GO Stanford データセットの球面カメラ画像と KITTI データセットのピンホールカメラ画像を用いて,本手法の有効性を実証した。
論文 参考訳(メタデータ) (2021-10-20T07:21:04Z) - On the Sins of Image Synthesis Loss for Self-supervised Depth Estimation [60.780823530087446]
画像合成の改善は深度推定の改善を必要としないことを示す。
この発散現象は、データから生じるアレラトリックな不確実性に起因している。
この観察された発散は、以前に報告されたり、深く研究されたりしていない。
論文 参考訳(メタデータ) (2021-09-13T17:57:24Z) - Variational Monocular Depth Estimation for Reliability Prediction [12.951621755732544]
教師付き学習手法の代替として,単眼深度推定のための自己教師付き学習が広く研究されている。
従来はモデル構造の変更による深度推定の精度向上に成功している。
本稿では, 単眼深度推定のための変分モデルを理論的に定式化し, 推定深度画像の信頼性を推定する。
論文 参考訳(メタデータ) (2020-11-24T06:23:51Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z) - Calibrating Self-supervised Monocular Depth Estimation [77.77696851397539]
近年、ニューラルネットワークが深度を学習し、画像のシーケンスに変化を起こさせる能力を示す方法は、訓練信号として自己スーパービジョンのみを使用している。
カメラの構成や環境に関する事前情報を取り入れることで,センサの追加に頼ることなく,自己教師型定式化を用いて,スケールのあいまいさを排除し,深度を直接予測できることを示す。
論文 参考訳(メタデータ) (2020-09-16T14:35:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。