論文の概要: Rectification with Visual Sphere perspective: an algebraic alternative
for P4P pose estimation
- arxiv url: http://arxiv.org/abs/2004.08933v3
- Date: Mon, 18 May 2020 01:01:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 00:31:38.726402
- Title: Rectification with Visual Sphere perspective: an algebraic alternative
for P4P pose estimation
- Title(参考訳): 視覚球面パースペクティブによる整流:p4pポーズ推定のための代数的代替
- Authors: Jakub Maksymilian Fober
- Abstract要約: ソリューションは、ループ反復なしで、ポーズ推定、カメラの向き、位置を含む可視長方形の完全な3D再構成を行う。
一般的な2Dの視点補正では、この方法にはカメラのレンズ情報を必要としない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Presented algorithm solves P4P problem for tangent pair of coplanar parallel
lines viewed in perspective with an algebraic equation. Introduction of Visual
Sphere Perspective model extends this algorithm to exotic non-linear
projections, where view angle can span to 180{\deg} and beyond; a hard-limit
for rectilinear perspective, common in planar homography and POSIt algorithms.
This solution performs full 3D reconstruction of a visible rectangle, including
pose estimation, camera orientation and position, without loop iterations. Full
pose estimation requires some camera-lens information like focal length (for
rectilinear projection) or a perspective map. For a generic 2D,
perspective-correct rectification, camera lens information is not required for
this method. This paper also presents visual sphere based, iteration-free
estimation method for camera's focal length.
- Abstract(参考訳): 提案アルゴリズムは、代数方程式を用いて視点から見た平面平行線の接対のp4p問題を解く。
Visual Sphere Perspective モデルの導入により、このアルゴリズムはエキゾチックな非線型射影に拡張され、ビュー角は180{\deg} 以上の範囲にまたがることができる。
このソリューションは、ループ反復なしでポーズ推定、カメラの向き、位置を含む可視長方形の完全な3次元再構成を行う。
フルポーズ推定には焦点距離(直線投影)や視点マップなどのカメラレンズ情報が必要となる。
一般的な2Dの視点補正では、この方法にはカメラのレンズ情報を必要としない。
また,カメラの焦点距離に対する視覚的球面に基づくイテレーションフリー推定手法を提案する。
関連論文リスト
- Full-range Head Pose Geometric Data Augmentations [2.8358100463599722]
多くのヘッドポーズ推定(HPE)メソッドは、フルレンジデータセットを作成する能力を約束する。
これらの手法は、頭部角度の範囲内でのみ正確であり、この特定の範囲を超えると、重大な不正確な結果がもたらされる。
本稿では,正しい軸列の座標系とオイラー角を正確に推定する手法を提案する。
論文 参考訳(メタデータ) (2024-08-02T20:41:18Z) - Estimating Depth of Monocular Panoramic Image with Teacher-Student Model Fusing Equirectangular and Spherical Representations [3.8240176158734194]
本研究では, 単眼パノラマ画像の深度を, 正方形および球形表現を融合した教師学生モデルを用いて推定する手法を提案する。
実験では、よく知られた360度単分子深度推定ベンチマークを用いて、提案手法を検証した。
論文 参考訳(メタデータ) (2024-05-27T06:11:16Z) - DVMNet: Computing Relative Pose for Unseen Objects Beyond Hypotheses [59.51874686414509]
現在のアプローチは、多数の離散的なポーズ仮説を持つ連続的なポーズ表現を近似している。
本稿では,DVMNet(Deep Voxel Matching Network)を提案する。
提案手法は,最先端の手法に比べて計算コストの低い新しいオブジェクトに対して,より正確なポーズ推定を行う。
論文 参考訳(メタデータ) (2024-03-20T15:41:32Z) - Point Anywhere: Directed Object Estimation from Omnidirectional Images [10.152838128195468]
本研究では、全方位カメラを用いて、指さしアームのユーザ/オブジェクト位置制約と左右方向制約を除去する手法を提案する。
提案手法は,等方形画像から興味領域を抽出し,高精度な推定を可能にする。
論文 参考訳(メタデータ) (2023-08-02T08:32:43Z) - Object-Based Visual Camera Pose Estimation From Ellipsoidal Model and
3D-Aware Ellipse Prediction [2.016317500787292]
本稿では,1枚の画像から初期カメラのポーズ推定を行う手法を提案する。
観察条件に関係なく、物体を確実に検出する深層学習技術を活用する。
実験により,提案手法により計算結果の精度が著しく向上することが確認された。
論文 参考訳(メタデータ) (2022-03-09T10:00:52Z) - Category-Level Metric Scale Object Shape and Pose Estimation [73.92460712829188]
本稿では,測度スケールの形状と1枚のRGB画像からのポーズを共同で推定するフレームワークを提案する。
カテゴリーレベルのオブジェクトのポーズと形状を評価するために,合成と実世界の両方のデータセット上で本手法の有効性を検証した。
論文 参考訳(メタデータ) (2021-09-01T12:16:46Z) - 3D-Aware Ellipse Prediction for Object-Based Camera Pose Estimation [3.103806775802078]
視聴条件に頑健な粗いカメラポーズ計算法を提案する。
観察条件に関係なく、物体を確実に検出する深層学習技術を活用する。
論文 参考訳(メタデータ) (2021-05-24T18:40:18Z) - Sparse Pose Trajectory Completion [87.31270669154452]
サンプルの少ないビューにのみオブジェクトが出現するデータセットを使用しても学習する方法を提案する。
これはクロスモーダルポーズ軌道伝達機構によって実現される。
この手法はPix3DおよびShapeNetデータセット上で評価される。
論文 参考訳(メタデータ) (2021-05-01T00:07:21Z) - Nothing But Geometric Constraints: A Model-Free Method for Articulated
Object Pose Estimation [89.82169646672872]
本稿では,ロボットアームの関節構成を,モデルに先入観を持たずにRGBまたはRGB-D画像のシーケンスから推定する,教師なし視覚ベースシステムを提案する。
我々は,古典幾何学的定式化と深層学習を組み合わせることで,この課題を解決するために,極性多剛体制約を拡張した。
論文 参考訳(メタデータ) (2020-11-30T20:46:48Z) - Category Level Object Pose Estimation via Neural Analysis-by-Synthesis [64.14028598360741]
本稿では、勾配に基づくフィッティング法とパラメトリックニューラルネットワーク合成モジュールを組み合わせる。
画像合成ネットワークは、ポーズ設定空間を効率的に分散するように設計されている。
本研究では,2次元画像のみから高精度に物体の向きを復元できることを実験的に示す。
論文 参考訳(メタデータ) (2020-08-18T20:30:47Z) - Object-Centric Multi-View Aggregation [86.94544275235454]
本稿では,オブジェクトのスパースなビュー集合を集約して,半単純3次元表現を容積特徴格子の形で計算する手法を提案する。
我々のアプローチの鍵となるのは、カメラのポーズを明示することなく、ビューを持ち上げることができるオブジェクト中心の標準3D座標システムである。
画素から標準座標系への対称対応マッピングの計算により、未知の領域への情報伝達がより良くなることを示す。
論文 参考訳(メタデータ) (2020-07-20T17:38:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。