論文の概要: A polynomial formula for the perspective four points problem
- arxiv url: http://arxiv.org/abs/2501.13058v1
- Date: Wed, 22 Jan 2025 18:10:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-23 13:28:40.076726
- Title: A polynomial formula for the perspective four points problem
- Title(参考訳): 視点四点問題に対する多項式公式
- Authors: David Lehavi, Brian Osserman,
- Abstract要約: 視点n-点問題に対する高速かつ正確な解を提示する。
まず、カメラを2Dキャンバスポイントに接続する光線の上に、別の3Dポイントを見つけます。
計算機代数システムの助けを借りて解を導出する。
- 参考スコア(独自算出の注目度): 0.30693357740321775
- License:
- Abstract: We present a fast and accurate solution to the perspective n-points problem, by way of a new approach to the n=4 case. Our solution hinges on a novel separation of variables: given four 3D points and four corresponding 2D points on the camera canvas, we start by finding another set of 3D points, sitting on the rays connecting the camera to the 2D canvas points, so that the six pair-wise distances between these 3D points are as close as possible to the six distances between the original 3D points. This step reduces the perspective problem to an absolute orientation problem (which has a solution via explicit formula). To solve the first problem we set coordinates which are as orientation-free as possible: on the 3D points side our coordinates are the squared distances between the points. On the 2D canvas-points side our coordinates are the dot products of the points after rotating one of them to sit on the optical axis. We then derive the solution with the help of a computer algebra system.
- Abstract(参考訳): 我々は n=4 の場合に対する新しいアプローチにより、視点 n-点問題に対する高速で正確な解を示す。
カメラキャンバス上の4つの3Dポイントと4つの対応する2Dポイントが与えられたとき、カメラと2Dキャンバスポイントを繋ぐ光線の上に座って別の3Dポイントを見つけることから始めます。
このステップは、パースペクティブ問題を(明示的な公式による解を持つ)絶対配向問題に還元する。
最初の問題を解決するために、座標をできるだけ無向きに設定した: 3次元の点側では、座標は点間の正方形距離である。
2次元キャンバス点側では、座標は光軸上に座るように回転させた後に点の点積となる。
次に、計算機代数システムの助けを借りて解を導出する。
関連論文リスト
- Occupancy-Based Dual Contouring [12.944046673902415]
本稿では,2重畳み込み方式を提案する。
本手法は,GPU並列化を最大化するために,学習不要かつ慎重に設計されている。
論文 参考訳(メタデータ) (2024-09-20T11:32:21Z) - Tracking by 3D Model Estimation of Unknown Objects in Videos [122.56499878291916]
この表現は限定的であり、代わりに明示的なオブジェクト表現を用いて2次元追跡をガイドし改善することを提案する。
我々の表現は、全てのビデオフレームのオブジェクト上の全ての3Dポイント間の複雑な長期密度対応問題に取り組む。
提案手法は, 最適3次元形状, テクスチャ, 6DoFのポーズを推定するために, 新たな損失関数を最小化する。
論文 参考訳(メタデータ) (2023-04-13T11:32:36Z) - Relative pose of three calibrated and partially calibrated cameras from four points using virtual correspondences [56.44647186049448]
3台のカメラの相対的なポーズを推定する際の課題について検討する。
我々のソリューションは、2つのビューで1つまたは2つの仮想点対応を生成するという単純なアイデアに基づいている。
論文 参考訳(メタデータ) (2023-03-28T15:50:48Z) - Partially calibrated semi-generalized pose from hybrid point
correspondences [68.22708881161049]
一般化カメラシステム内のカメラ構成について検討する。
実用的な解法を導出するために、異なるパラメタライゼーションと異なる解法戦略をテストする。
これらの解法は, 3次元点における雑音の存在下で, 対応する絶対ポーズ解法よりも優れた推定値が得られることを示す。
論文 参考訳(メタデータ) (2022-09-29T19:46:59Z) - Neural Correspondence Field for Object Pose Estimation [67.96767010122633]
1枚のRGB画像から3次元モデルで剛体物体の6DoFポーズを推定する手法を提案する。
入力画像の画素で3次元オブジェクト座標を予測する古典的対応法とは異なり,提案手法はカメラフラストラムでサンプリングされた3次元クエリポイントで3次元オブジェクト座標を予測する。
論文 参考訳(メタデータ) (2022-07-30T01:48:23Z) - Spatial Feature Mapping for 6DoF Object Pose Estimation [29.929911622127502]
この研究は、6Dof (6D)オブジェクトのポーズを背景クラッタで推定することを目的としている。
本稿では,強い閉塞と背景雑音を考慮し,この課題に対処するために空間構造を活用することを提案する。
論文 参考訳(メタデータ) (2022-06-03T21:44:10Z) - Weakly Supervised Learning of Keypoints for 6D Object Pose Estimation [73.40404343241782]
2次元キーポイント検出に基づく弱教師付き6次元オブジェクトポーズ推定手法を提案する。
提案手法は,最先端の完全教師付きアプローチと同等の性能を実現する。
論文 参考訳(メタデータ) (2022-03-07T16:23:47Z) - Learning 2D-3D Correspondences To Solve The Blind Perspective-n-Point
Problem [98.92148855291363]
本稿では、6-DoFの絶対カメラポーズ2D--3D対応を同時に解決するディープCNNモデルを提案する。
実データとシミュレーションデータの両方でテストした結果,本手法は既存手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2020-03-15T04:17:30Z) - L6DNet: Light 6 DoF Network for Robust and Precise Object Pose
Estimation with Small Datasets [0.0]
1枚のRGB-D画像から6つのDoFオブジェクトのポーズ推定を行う新しい手法を提案する。
データ駆動と幾何学という2段階のハイブリッドパイプラインを採用しています。
私たちのアプローチは最先端の手法よりも堅牢で正確です。
論文 参考訳(メタデータ) (2020-02-03T17:41:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。