論文の概要: Direct-PoseNet: Absolute Pose Regression with Photometric Consistency
- arxiv url: http://arxiv.org/abs/2104.04073v1
- Date: Thu, 8 Apr 2021 21:10:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-12 14:06:25.125077
- Title: Direct-PoseNet: Absolute Pose Regression with Photometric Consistency
- Title(参考訳): Direct-PoseNet: Photometric Consistencyによる絶対的なPose回帰
- Authors: Shuai Chen, Zirui Wang, Victor Prisacariu
- Abstract要約: 本稿では,絶対ポーズ回帰ネットワークと新しいビュー合成に基づく直接マッチングモジュールを組み合わせた再局在化パイプラインを提案する。
当社のネットワークDirect-PoseNetは、7-ScenesベンチマークとLLFFデータセット上の他のすべてのシングルイメージAPRメソッドの中で最先端のパフォーマンスを実現します。
- 参考スコア(独自算出の注目度): 16.60612964943876
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a relocalization pipeline, which combines an absolute pose
regression (APR) network with a novel view synthesis based direct matching
module, offering superior accuracy while maintaining low inference time. Our
contribution is twofold: i) we design a direct matching module that supplies a
photometric supervision signal to refine the pose regression network via
differentiable rendering; ii) we modify the rotation representation from the
classical quaternion to SO(3) in pose regression, removing the need for
balancing rotation and translation loss terms. As a result, our network
Direct-PoseNet achieves state-of-the-art performance among all other
single-image APR methods on the 7-Scenes benchmark and the LLFF dataset.
- Abstract(参考訳): 本稿では,絶対ポーズ回帰 (apr) ネットワークと,新しいビュー合成に基づく直接マッチングモジュールを組み合わせた再局在化パイプラインを提案する。
i) 微分可能レンダリングによる姿勢回帰ネットワークを洗練するための測光的監督信号を提供する直接マッチングモジュールを設計し, ii) 姿勢回帰において, 従来の四元数からso(3)へ回転表現を変換し, 回転と翻訳損失項のバランスを取る必要をなくした。
その結果,本ネットワークは,7-scenesベンチマークとllffデータセットにおいて,すべての単一画像apr手法において最先端の性能を実現する。
関連論文リスト
- (Fusionformer):Exploiting the Joint Motion Synergy with Fusion Network
Based On Transformer for 3D Human Pose Estimation [1.52292571922932]
多くの従来手法では、局所的な関節情報の理解が欠けていた。
提案手法では,グローバル・テンポラル・セルフ・トラジェクトリ・モジュールとクロス・テンポラル・セルフ・トラジェクトリ・モジュールを導入する。
その結果、Human3.6Mデータセットでは2.4%のMPJPEと4.3%のP-MPJPEが改善された。
論文 参考訳(メタデータ) (2022-10-08T12:22:10Z) - Effective Invertible Arbitrary Image Rescaling [77.46732646918936]
Invertible Neural Networks (INN)は、ダウンスケーリングとアップスケーリングのサイクルを共同で最適化することにより、アップスケーリングの精度を大幅に向上させることができる。
本研究の1つのモデルのみをトレーニングすることにより、任意の画像再スケーリングを実現するために、単純で効果的な非可逆的再スケーリングネットワーク(IARN)を提案する。
LR出力の知覚品質を損なうことなく、双方向任意再スケーリングにおいて最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2022-09-26T22:22:30Z) - DFNet: Enhance Absolute Pose Regression with Direct Feature Matching [16.96571417692014]
絶対ポーズ回帰(APR)と直接特徴マッチングを組み合わせたカメラ再局在パイプラインを導入する。
提案手法は,既存の1画像のAPR手法を最大56%上回る精度で3次元構造法に匹敵する精度を実現する。
論文 参考訳(メタデータ) (2022-04-01T16:39:16Z) - Poseur: Direct Human Pose Regression with Transformers [119.79232258661995]
単一画像からの2次元人間のポーズ推定に対する直接回帰に基づくアプローチを提案する。
私たちのフレームワークはエンドツーエンドの差別化が可能で、キーポイント間の依存関係を自然に活用することを学びます。
我々のアプローチは、最も優れたヒートマップベースのポーズ推定手法と比較して好意的に機能する最初の回帰ベースのアプローチである。
論文 参考訳(メタデータ) (2022-01-19T04:31:57Z) - PR-RRN: Pairwise-Regularized Residual-Recursive Networks for Non-rigid
Structure-from-Motion [58.75694870260649]
PR-RRNは、非剛性構造移動のための新しいニューラルネットワークベースの手法である。
再建をさらに規則化するための2つの新しいペアワイズ正規化を提案する。
提案手法は,CMU MOCAPとPASCAL3D+データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-08-17T08:39:02Z) - 3D Human Pose and Shape Regression with Pyramidal Mesh Alignment
Feedback Loop [128.07841893637337]
回帰に基づく手法は最近、単眼画像からヒトのメッシュを再構成する有望な結果を示した。
パラメータの小さな偏差は、推定メッシュと画像のエビデンスの間に顕著な不一致を引き起こす可能性がある。
本稿では,特徴ピラミッドを活用し,予測パラメータを補正するために,ピラミッドメッシュアライメントフィードバック(pymaf)ループを提案する。
論文 参考訳(メタデータ) (2021-03-30T17:07:49Z) - Tight-Integration of Feature-Based Relocalization in Monocular Direct
Visual Odometry [49.89611704653707]
本稿では,地図に基づく再局在化をオンラインビジュアル・オドメトリーに統合するためのフレームワークを提案する。
我々は画像特徴をDSO(Direct Sparse Odometry)に統合し、オンライン視覚計測と以前に構築された地図を関連付ける機能マッチングに依存する。
論文 参考訳(メタデータ) (2021-02-01T21:41:05Z) - LM-Reloc: Levenberg-Marquardt Based Direct Visual Relocalization [54.77498358487812]
LM-Relocは、直接画像アライメントに基づく視覚的再ローカライズのための新しいアプローチである。
本稿では,LM-Net を学習するための古典的レバンス・マルカルトアルゴリズムにインスパイアされた損失定式化を提案する。
論文 参考訳(メタデータ) (2020-10-13T12:15:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。