論文の概要: Unsupervised Learning of Camera Pose with Compositional Re-estimation
- arxiv url: http://arxiv.org/abs/2001.06479v1
- Date: Fri, 17 Jan 2020 18:59:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-10 12:46:58.648313
- Title: Unsupervised Learning of Camera Pose with Compositional Re-estimation
- Title(参考訳): 合成再推定によるカメラポーズの教師なし学習
- Authors: Seyed Shahabeddin Nabavi, Mehrdad Hosseinzadeh, Ramin Fahimi, Yang
Wang
- Abstract要約: 入力ビデオシーケンスが与えられた場合、カメラのポーズ(つまりカメラの動き)を連続フレーム間で推定する。
本稿では,カメラポーズ推定のための合成再推定手法を提案する。
我々のアプローチは、予測されたカメラの動きを量的にも視覚的にも著しく改善する。
- 参考スコア(独自算出の注目度): 10.251550038802343
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of unsupervised camera pose estimation. Given an
input video sequence, our goal is to estimate the camera pose (i.e. the camera
motion) between consecutive frames. Traditionally, this problem is tackled by
placing strict constraints on the transformation vector or by incorporating
optical flow through a complex pipeline. We propose an alternative approach
that utilizes a compositional re-estimation process for camera pose estimation.
Given an input, we first estimate a depth map. Our method then iteratively
estimates the camera motion based on the estimated depth map. Our approach
significantly improves the predicted camera motion both quantitatively and
visually. Furthermore, the re-estimation resolves the problem of
out-of-boundaries pixels in a novel and simple way. Another advantage of our
approach is that it is adaptable to other camera pose estimation approaches.
Experimental analysis on KITTI benchmark dataset demonstrates that our method
outperforms existing state-of-the-art approaches in unsupervised camera
ego-motion estimation.
- Abstract(参考訳): 教師なしカメラポーズ推定の問題点を考察する。
入力ビデオシーケンスが与えられた場合、カメラのポーズ(つまりカメラの動き)を連続フレーム間で推定する。
伝統的に、この問題は変換ベクトルに厳密な制約を課したり、複雑なパイプラインを通して光学的流れを組み込むことによって解決される。
カメラポーズ推定のための合成再推定プロセスを利用した代替手法を提案する。
入力が与えられたら、まず深度マップを推定する。
そして,推定深度マップに基づいてカメラの動作を反復的に推定する。
提案手法は, 定量的および視覚的に, 予測されたカメラ動作を大幅に改善する。
さらに、再推定は、バウンダリ外画素の問題を新規かつ簡単な方法で解決する。
我々のアプローチのもう1つの利点は、他のカメラポーズ推定アプローチに適応可能であることです。
KITTIベンチマークデータセットの実験的解析により、我々の手法は教師なしカメラのエゴモーション推定における既存の最先端手法よりも優れていることが示された。
関連論文リスト
- Cameras as Rays: Pose Estimation via Ray Diffusion [57.32374715650491]
カメラのポーズを推定することは3D再構築の基本的な課題であり、まばらな視点では依然として挑戦的である。
本稿では,カメラを光束として扱うカメラポーズの分散表現を提案する。
提案手法は回帰法と拡散法の両方で,CO3Dのカメラポーズ推定における最先端性能を示す。
論文 参考訳(メタデータ) (2024-02-22T18:59:56Z) - Learning Robust Multi-Scale Representation for Neural Radiance Fields
from Unposed Images [65.41966114373373]
コンピュータビジョンにおけるニューラルイメージベースのレンダリング問題に対する改善された解決策を提案する。
提案手法は,テスト時に新たな視点からシーンのリアルなイメージを合成することができる。
論文 参考訳(メタデータ) (2023-11-08T08:18:23Z) - DepthP+P: Metric Accurate Monocular Depth Estimation using Planar and
Parallax [0.0]
現在の自己監督型単眼深度推定法は主に、カメラの動きを表す剛体の動きを推定することに基づいている。
本稿では,従来の平面パララックスパラダイムに従えば,メートル法で出力を推定する手法であるDepthP+Pを提案する。
論文 参考訳(メタデータ) (2023-01-05T14:53:21Z) - ParticleSfM: Exploiting Dense Point Trajectories for Localizing Moving
Cameras in the Wild [57.37891682117178]
本稿では,一対の光流からの高密度対応に基づく動画の高密度間接構造抽出手法を提案する。
不規則点軌道データを処理するために,新しいニューラルネットワークアーキテクチャを提案する。
MPIシンテルデータセットを用いた実験により,我々のシステムはより正確なカメラ軌道を生成することがわかった。
論文 参考訳(メタデータ) (2022-07-19T09:19:45Z) - DiffPoseNet: Direct Differentiable Camera Pose Estimation [11.941057800943653]
我々は,強靭かつ直接的な制約を強制するために,正規フロー推定のためのネットワークNFlowNetを導入する。
我々は,提案したDiffPoseNetの雑音に対する感度とデータセット間の一般化について,定性的かつ定量的に評価する。
論文 参考訳(メタデータ) (2022-03-21T17:54:30Z) - Self-Supervised Camera Self-Calibration from Video [34.35533943247917]
汎用カメラモデルの効率的なファミリーを用いてシーケンスごとのキャリブレーションパラメータを回帰する学習アルゴリズムを提案する。
提案手法は,サブピクセル再投射誤差による自己校正を行い,他の学習手法よりも優れる。
論文 参考訳(メタデータ) (2021-12-06T19:42:05Z) - Attentive and Contrastive Learning for Joint Depth and Motion Field
Estimation [76.58256020932312]
単眼視システムからシーンの3次元構造とともにカメラの動きを推定することは複雑な作業である。
モノクロ映像からの3次元物体運動場推定のための自己教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T16:45:01Z) - Robust Consistent Video Depth Estimation [65.53308117778361]
本稿では,単眼映像からカメラのカメラポーズと密集した深度マップを推定するアルゴリズムを提案する。
本手法は,(1)低周波大規模アライメントのためのフレキシブルな変形-スプラインと(2)細部奥行き詳細の高周波アライメントのための幾何認識深度フィルタリングとを組み合わせた手法である。
従来の手法とは対照的に, カメラのポーズを入力として必要とせず, かなりの音量, 揺動, 動きのぼやき, 転がりシャッター変形を含む携帯のハンドヘルドキャプチャに頑健な再構成を実現する。
論文 参考訳(メタデータ) (2020-12-10T18:59:48Z) - I Like to Move It: 6D Pose Estimation as an Action Decision Process [53.63776807432945]
オブジェクトのポーズ推定は、ロボットビジョンとARの不可欠な部分である。
以前の6Dポーズ検索パイプラインは、問題を回帰タスクとして扱うか、または、ポーズ空間を識別して分類する。
我々はこのパラダイムを変更し、初期ポーズを段階的に離散的に更新するアクション決定プロセスとして問題を再構築する。
ニューラルネットワークが推定すると、単一のRGBイメージから反復的に移動し、許容できる最終ポーズを決定する。
論文 参考訳(メタデータ) (2020-09-26T20:05:42Z) - Camera Pose Matters: Improving Depth Prediction by Mitigating Pose
Distribution Bias [12.354076490479516]
トレーニングと予測中にカメラのポーズを利用する2つの新しい手法を提案する。
まず、より多様な視点で新しいトレーニング例を合成する、シンプルな視点対応データ拡張を提案する。
次に,画像当たりのカメラポーズを先行知識として利用し,入力の一部として符号化する条件モデルを提案する。
論文 参考訳(メタデータ) (2020-07-08T04:14:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。