論文の概要: DiffPoseNet: Direct Differentiable Camera Pose Estimation
- arxiv url: http://arxiv.org/abs/2203.11174v1
- Date: Mon, 21 Mar 2022 17:54:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-22 18:50:12.351003
- Title: DiffPoseNet: Direct Differentiable Camera Pose Estimation
- Title(参考訳): DiffPoseNet: 直接微分可能なカメラポーズ推定
- Authors: Chethan M. Parameshwara, Gokul Hari, Cornelia Ferm\"uller, Nitin J.
Sanket, Yiannis Aloimonos
- Abstract要約: 我々は,強靭かつ直接的な制約を強制するために,正規フロー推定のためのネットワークNFlowNetを導入する。
我々は,提案したDiffPoseNetの雑音に対する感度とデータセット間の一般化について,定性的かつ定量的に評価する。
- 参考スコア(独自算出の注目度): 11.941057800943653
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current deep neural network approaches for camera pose estimation rely on
scene structure for 3D motion estimation, but this decreases the robustness and
thereby makes cross-dataset generalization difficult. In contrast, classical
approaches to structure from motion estimate 3D motion utilizing optical flow
and then compute depth. Their accuracy, however, depends strongly on the
quality of the optical flow. To avoid this issue, direct methods have been
proposed, which separate 3D motion from depth estimation but compute 3D motion
using only image gradients in the form of normal flow. In this paper, we
introduce a network NFlowNet, for normal flow estimation which is used to
enforce robust and direct constraints. In particular, normal flow is used to
estimate relative camera pose based on the cheirality (depth positivity)
constraint. We achieve this by formulating the optimization problem as a
differentiable cheirality layer, which allows for end-to-end learning of camera
pose. We perform extensive qualitative and quantitative evaluation of the
proposed DiffPoseNet's sensitivity to noise and its generalization across
datasets. We compare our approach to existing state-of-the-art methods on
KITTI, TartanAir, and TUM-RGBD datasets.
- Abstract(参考訳): カメラポーズ推定のための現在のディープニューラルネットワークアプローチは3次元モーション推定のシーン構造に依存しているが、これによりロバスト性が低下し、クロスデータセットの一般化が困難になる。
対照的に、光学的流れを利用した動き推定3次元運動の構造に対する古典的なアプローチは、深さを計算する。
しかし、その精度は光学フローの品質に大きく依存する。
この問題を回避するために, 深度推定から3次元運動を分離する直接法が提案されているが, 通常の流れの形で画像勾配のみを用いて3次元運動を計算する。
本稿では,強靭かつ直接的な制約を強制するために,正規フロー推定のためのネットワークNFlowNetを提案する。
特に, 相対的なカメラポーズを, 温度(深度正の制約)に基づいて推定するために, 通常の流れを用いる。
我々は、カメラポーズのエンドツーエンド学習を可能にする、可微分性層として最適化問題を定式化し、これを実現する。
我々は,提案したDiffPoseNetの雑音に対する感度とデータセット間の一般化について,定性的かつ定量的に評価する。
我々は、KITTI、TartanAir、TUM-RGBDデータセット上の既存の最先端手法と比較した。
関連論文リスト
- ScaleRAFT: Cross-Scale Recurrent All-Pairs Field Transforms for 3D Motion Estimation [15.629496237910999]
本稿では,クロススケールマッチングに基づく正規化シーンフローフレームワークScaleRAFTを提案する。
本手法は,運転シナリオにおける動作推定タスクにおいて,これまでで最高の前景性能を達成している。
論文 参考訳(メタデータ) (2024-07-13T07:58:48Z) - FlowMap: High-Quality Camera Poses, Intrinsics, and Depth via Gradient Descent [19.977807508281835]
FlowMapは、正確なカメラポーズ、カメラ内在、およびビデオシーケンスのフレーム毎の密度の深さを解決する、エンドツーエンドの微分可能な方法である。
提案手法は,最小2乗の目的をビデオごとの勾配差最小化する。
提案手法によって得られたカメラパラメータと密度深度は,360度軌道上での光リアルな新規ビュー合成を可能にすることを実証的に示す。
論文 参考訳(メタデータ) (2024-04-23T17:46:50Z) - iComMa: Inverting 3D Gaussian Splatting for Camera Pose Estimation via Comparing and Matching [14.737266480464156]
コンピュータビジョンにおける6次元カメラのポーズ推定問題に対処するため,iComMaという手法を提案する。
3次元ガウススプラッティング(3DGS)の反転による高精度カメラポーズ推定法を提案する。
論文 参考訳(メタデータ) (2023-12-14T15:31:33Z) - SceNeRFlow: Time-Consistent Reconstruction of General Dynamic Scenes [75.9110646062442]
我々はSceNeRFlowを提案し、時間的一貫性のある方法で一般的な非剛体シーンを再構築する。
提案手法は,カメラパラメータを入力として,静止カメラからのマルチビューRGBビデオと背景画像を取得する。
実験により,小規模動作のみを扱う先行作業とは異なり,スタジオスケール動作の再構築が可能であることが示された。
論文 参考訳(メタデータ) (2023-08-16T09:50:35Z) - FrozenRecon: Pose-free 3D Scene Reconstruction with Frozen Depth Models [67.96827539201071]
本稿では,3次元シーン再構成のための新しいテスト時間最適化手法を提案する。
本手法は5つのゼロショットテストデータセット上で,最先端のクロスデータセット再構築を実現する。
論文 参考訳(メタデータ) (2023-08-10T17:55:02Z) - NIKI: Neural Inverse Kinematics with Invertible Neural Networks for 3D
Human Pose and Shape Estimation [53.25973084799954]
両方向誤差をモデル化したNIKI(Neural Inverse Kinematics with Invertible Neural Network)を提案する。
NIKIは、非可逆ネットワークによる前処理と逆処理の両方から学習することができる。
論文 参考訳(メタデータ) (2023-05-15T12:13:24Z) - ParticleSfM: Exploiting Dense Point Trajectories for Localizing Moving
Cameras in the Wild [57.37891682117178]
本稿では,一対の光流からの高密度対応に基づく動画の高密度間接構造抽出手法を提案する。
不規則点軌道データを処理するために,新しいニューラルネットワークアーキテクチャを提案する。
MPIシンテルデータセットを用いた実験により,我々のシステムはより正確なカメラ軌道を生成することがわかった。
論文 参考訳(メタデータ) (2022-07-19T09:19:45Z) - RNNPose: Recurrent 6-DoF Object Pose Refinement with Robust
Correspondence Field Estimation and Pose Optimization [46.144194562841435]
本稿では、オブジェクトポーズ改善のためのリカレントニューラルネットワーク(RNN)に基づくフレームワークを提案する。
この問題は、推定対応フィールドに基づいて非線形最小二乗問題として定式化される。
各イテレーションにおいて、対応フィールド推定とポーズ精錬を代替して行い、正確なオブジェクトポーズを復元する。
論文 参考訳(メタデータ) (2022-03-24T06:24:55Z) - Optical Flow Estimation from a Single Motion-blurred Image [66.2061278123057]
画像内の動きのぼかしは、基本的なコンピュータビジョンの問題に実用的な関心を持つ可能性があります。
本研究では,単一動画像からの光流れをエンドツーエンドで推定する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:45:18Z) - FlowStep3D: Model Unrolling for Self-Supervised Scene Flow Estimation [87.74617110803189]
シーンフローとして知られるシーン内の点の3次元運動を推定することは、コンピュータビジョンにおける中核的な問題である。
本稿では,シーンフローの予測を洗練するための反復的アライメント手順の1ステップを学習する再帰的アーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-11-19T23:23:48Z) - Active Depth Estimation: Stability Analysis and its Applications [18.582561853987034]
本稿では,Structure-from-Motion(SfM)方式の理論的性質について述べる。
インクリメンタルという言葉は、画像フレームの時系列上のシーンの3次元構造を推定することを意味する。
リアプノフ理論を用いて推定子の収束を解析することにより、画像平面内の3次元点の射影に対する制約を緩和する。
論文 参考訳(メタデータ) (2020-03-16T12:12:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。