論文の概要: Calculating Pose with Vanishing Points of Visual-Sphere Perspective
Model
- arxiv url: http://arxiv.org/abs/2004.08933v4
- Date: Sun, 14 May 2023 03:23:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-17 02:16:48.164952
- Title: Calculating Pose with Vanishing Points of Visual-Sphere Perspective
Model
- Title(参考訳): 視覚球面パースペクティブモデルの消滅点を考慮した計算ポッド
- Authors: Jakub Maksymilian Fober
- Abstract要約: 提案手法の目的は, 推定することなく, 既知の長方形対象のポーズ行列を直接取得することである。
この方法は、魚眼カメラビューのような180degの視野を超えるリアルタイムで極端な撮影装置に特化している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The goal of the proposed method is to directly obtain a pose matrix of a
known rectangular target, without estimation, using geometric techniques. This
method is specifically tailored for real-time, extreme imaging setups exceeding
180{\deg} field of view, such as a fish-eye camera view. The introduced
algorithm employs geometric algebra to determine the pose for a pair of
coplanar parallel lines (ideally a tangent pair as in a rectangle). This is
achieved by computing vanishing points on a visual unit sphere, which
correspond to pose matrix vectors. The algorithm can determine pose for an
extremely distorted view source without prior rectification, owing to a
visual-sphere perspective model mapping of view coordinates. Mapping can be
performed using either a perspective map lookup or a parametric universal
perspective distortion model, which is also presented in this paper. The
outcome is a robust pose matrix computation that can be executed on an embedded
system using a microcontroller, offering high accuracy and low latency. This
method can be further extended to a cubic target setup for comprehensive camera
calibration. It may also prove valuable in other applications requiring low
latency and extreme viewing angles.
- Abstract(参考訳): 提案手法の目標は, 幾何学的手法を用いて, 推定することなく, 既知の矩形対象のポーズ行列を直接取得することである。
この方法は、魚眼カメラビューのような180{\deg}視野を超えるリアルタイム、極端な撮像装置に特化している。
導入されたアルゴリズムは幾何代数を用いてコプラナー平行線(理想的には長方形のような接対)のポーズを決定する。
これは、ポーズ行列ベクトルに対応する視覚単位球面上の点を計算することによって達成される。
このアルゴリズムは、ビュー座標の視野モデルマッピングにより、事前の補正なしに非常に歪んだビューソースのポーズを決定することができる。
本稿では、視点マップのルックアップと、パラメトリックな普遍的視点歪モデルを用いてマッピングを行うことができる。
その結果、マイクロコントローラを使用して組み込みシステムで実行でき、高い精度と低レイテンシを実現する、堅牢なポーズ行列計算が実現した。
この方法は、包括的カメラキャリブレーションのための立方体ターゲット設定にさらに拡張することができる。
また、低レイテンシと極端な視野角を必要とする他のアプリケーションでも有用である。
関連論文リスト
- Full-range Head Pose Geometric Data Augmentations [2.8358100463599722]
多くのヘッドポーズ推定(HPE)メソッドは、フルレンジデータセットを作成する能力を約束する。
これらの手法は、頭部角度の範囲内でのみ正確であり、この特定の範囲を超えると、重大な不正確な結果がもたらされる。
本稿では,正しい軸列の座標系とオイラー角を正確に推定する手法を提案する。
論文 参考訳(メタデータ) (2024-08-02T20:41:18Z) - Estimating Depth of Monocular Panoramic Image with Teacher-Student Model Fusing Equirectangular and Spherical Representations [3.8240176158734194]
本研究では, 単眼パノラマ画像の深度を, 正方形および球形表現を融合した教師学生モデルを用いて推定する手法を提案する。
実験では、よく知られた360度単分子深度推定ベンチマークを用いて、提案手法を検証した。
論文 参考訳(メタデータ) (2024-05-27T06:11:16Z) - DVMNet: Computing Relative Pose for Unseen Objects Beyond Hypotheses [59.51874686414509]
現在のアプローチは、多数の離散的なポーズ仮説を持つ連続的なポーズ表現を近似している。
本稿では,DVMNet(Deep Voxel Matching Network)を提案する。
提案手法は,最先端の手法に比べて計算コストの低い新しいオブジェクトに対して,より正確なポーズ推定を行う。
論文 参考訳(メタデータ) (2024-03-20T15:41:32Z) - Point Anywhere: Directed Object Estimation from Omnidirectional Images [10.152838128195468]
本研究では、全方位カメラを用いて、指さしアームのユーザ/オブジェクト位置制約と左右方向制約を除去する手法を提案する。
提案手法は,等方形画像から興味領域を抽出し,高精度な推定を可能にする。
論文 参考訳(メタデータ) (2023-08-02T08:32:43Z) - Object-Based Visual Camera Pose Estimation From Ellipsoidal Model and
3D-Aware Ellipse Prediction [2.016317500787292]
本稿では,1枚の画像から初期カメラのポーズ推定を行う手法を提案する。
観察条件に関係なく、物体を確実に検出する深層学習技術を活用する。
実験により,提案手法により計算結果の精度が著しく向上することが確認された。
論文 参考訳(メタデータ) (2022-03-09T10:00:52Z) - Category-Level Metric Scale Object Shape and Pose Estimation [73.92460712829188]
本稿では,測度スケールの形状と1枚のRGB画像からのポーズを共同で推定するフレームワークを提案する。
カテゴリーレベルのオブジェクトのポーズと形状を評価するために,合成と実世界の両方のデータセット上で本手法の有効性を検証した。
論文 参考訳(メタデータ) (2021-09-01T12:16:46Z) - 3D-Aware Ellipse Prediction for Object-Based Camera Pose Estimation [3.103806775802078]
視聴条件に頑健な粗いカメラポーズ計算法を提案する。
観察条件に関係なく、物体を確実に検出する深層学習技術を活用する。
論文 参考訳(メタデータ) (2021-05-24T18:40:18Z) - Sparse Pose Trajectory Completion [87.31270669154452]
サンプルの少ないビューにのみオブジェクトが出現するデータセットを使用しても学習する方法を提案する。
これはクロスモーダルポーズ軌道伝達機構によって実現される。
この手法はPix3DおよびShapeNetデータセット上で評価される。
論文 参考訳(メタデータ) (2021-05-01T00:07:21Z) - Nothing But Geometric Constraints: A Model-Free Method for Articulated
Object Pose Estimation [89.82169646672872]
本稿では,ロボットアームの関節構成を,モデルに先入観を持たずにRGBまたはRGB-D画像のシーケンスから推定する,教師なし視覚ベースシステムを提案する。
我々は,古典幾何学的定式化と深層学習を組み合わせることで,この課題を解決するために,極性多剛体制約を拡張した。
論文 参考訳(メタデータ) (2020-11-30T20:46:48Z) - Category Level Object Pose Estimation via Neural Analysis-by-Synthesis [64.14028598360741]
本稿では、勾配に基づくフィッティング法とパラメトリックニューラルネットワーク合成モジュールを組み合わせる。
画像合成ネットワークは、ポーズ設定空間を効率的に分散するように設計されている。
本研究では,2次元画像のみから高精度に物体の向きを復元できることを実験的に示す。
論文 参考訳(メタデータ) (2020-08-18T20:30:47Z) - Object-Centric Multi-View Aggregation [86.94544275235454]
本稿では,オブジェクトのスパースなビュー集合を集約して,半単純3次元表現を容積特徴格子の形で計算する手法を提案する。
我々のアプローチの鍵となるのは、カメラのポーズを明示することなく、ビューを持ち上げることができるオブジェクト中心の標準3D座標システムである。
画素から標準座標系への対称対応マッピングの計算により、未知の領域への情報伝達がより良くなることを示す。
論文 参考訳(メタデータ) (2020-07-20T17:38:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。