論文の概要: Mathematical Foundation and Corrections for Full Range Head Pose Estimation
- arxiv url: http://arxiv.org/abs/2403.18104v1
- Date: Tue, 26 Mar 2024 21:04:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-28 20:55:22.692182
- Title: Mathematical Foundation and Corrections for Full Range Head Pose Estimation
- Title(参考訳): フルレンジ・ヘッド・ポーズ推定のための数学的基礎と補正
- Authors: Huei-Chung Hu, Xuyang Wu, Yuan Wang, Yi Fang, Hsin-Tai Wu,
- Abstract要約: 回転行列が座標系に依存することはよく知られており、ヨー、ロール、ピッチ角はそれらの適用順序に敏感である。
本稿では,300W-LPデータセットで定義されたEuler角,3DDFA-v2,6D-RepNet,WHENetなどの頭部ポーズ推定,およびEuler角の描画ルーチンの有効性について詳しく検討した。
必要であれば、提供されたコードから座標系とヨー、ロール、ピッチのシーケンスを推測する。
- 参考スコア(独自算出の注目度): 16.697345330120744
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Numerous works concerning head pose estimation (HPE) offer algorithms or proposed neural network-based approaches for extracting Euler angles from either facial key points or directly from images of the head region. However, many works failed to provide clear definitions of the coordinate systems and Euler or Tait-Bryan angles orders in use. It is a well-known fact that rotation matrices depend on coordinate systems, and yaw, roll, and pitch angles are sensitive to their application order. Without precise definitions, it becomes challenging to validate the correctness of the output head pose and drawing routines employed in prior works. In this paper, we thoroughly examined the Euler angles defined in the 300W-LP dataset, head pose estimation such as 3DDFA-v2, 6D-RepNet, WHENet, etc, and the validity of their drawing routines of the Euler angles. When necessary, we infer their coordinate system and sequence of yaw, roll, pitch from provided code. This paper presents (1) code and algorithms for inferring coordinate system from provided source code, code for Euler angle application order and extracting precise rotation matrices and the Euler angles, (2) code and algorithms for converting poses from one rotation system to another, (3) novel formulae for 2D augmentations of the rotation matrices, and (4) derivations and code for the correct drawing routines for rotation matrices and poses. This paper also addresses the feasibility of defining rotations with right-handed coordinate system in Wikipedia and SciPy, which makes the Euler angle extraction much easier for full-range head pose research.
- Abstract(参考訳): 頭部ポーズ推定(HPE)に関する多くの研究は、顔のキーポイントまたは頭部領域の画像から直接オイラー角を抽出するアルゴリズムまたはニューラルネットワークに基づくアプローチを提供する。
しかし、多くの研究は座標系とオイラーあるいはタイト・ブライアン角の明確な定義を提供しられなかった。
回転行列が座標系に依存することはよく知られている事実であり、ヨー、ロール、ピッチ角はその適用順序に敏感である。
正確な定義がなければ、出力ヘッドポーズの正しさと、先行作業で使用されるルーチンの描画の検証が困難になる。
本稿では,300W-LPデータセットで定義されたEuler角,3DDFA-v2,6D-RepNet,WHENetなどの頭部ポーズ推定,およびEuler角の描画ルーチンの有効性について詳しく検討した。
必要であれば、提供されたコードから座標系とヨー、ロール、ピッチのシーケンスを推測する。
本稿では,(1)提供されたソースコードから座標系を推定するコードとアルゴリズム,(2)正確な回転行列とオイラー角度を抽出するコードとアルゴリズム,(2)回転系から他の回転行列へポーズを変換するコードとアルゴリズム,(3)回転行列を2次元拡張する新しい公式,(4)回転行列とポーズの正しい描画ルーチンの導出とコードを提案する。
本稿では,Wikipedia と SciPy の右利き座標系による回転定義の実現可能性についても論じる。
関連論文リスト
- Full-range Head Pose Geometric Data Augmentations [2.8358100463599722]
多くのヘッドポーズ推定(HPE)メソッドは、フルレンジデータセットを作成する能力を約束する。
これらの手法は、頭部角度の範囲内でのみ正確であり、この特定の範囲を超えると、重大な不正確な結果がもたらされる。
本稿では,正しい軸列の座標系とオイラー角を正確に推定する手法を提案する。
論文 参考訳(メタデータ) (2024-08-02T20:41:18Z) - CheckerPose: Progressive Dense Keypoint Localization for Object Pose
Estimation with Graph Neural Network [66.24726878647543]
単一のRGB画像から固い物体の6-DoFのポーズを推定することは、非常に難しい課題である。
近年の研究では、高密度対応型解の大きな可能性を示している。
そこで本研究では,CheckerPoseというポーズ推定アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-29T17:30:53Z) - Category-Level 6D Object Pose Estimation with Flexible Vector-Based
Rotation Representation [51.67545893892129]
モノクロRGB-D画像からカテゴリレベルの6次元ポーズとサイズ推定のための新しい3次元グラフ畳み込みに基づくパイプラインを提案する。
まず,3次元グラフ畳み込みを用いた向き対応オートエンコーダの設計を行った。
そして, 回転情報を潜在特徴から効率的に復号化するために, フレキシブルなベクトルベースデコンポーザブルな回転表現を設計する。
論文 参考訳(メタデータ) (2022-12-09T02:13:43Z) - An Intuitive and Unconstrained 2D Cube Representation for Simultaneous
Head Detection and Pose Estimation [24.04477340811483]
直感的手法による新しい単一ステージ鍵ベース手法を提案し,その2次元立方体表現を結合頭部検出とポーズ推定のために提案する。
提案手法は,AFLW2000およびBIWIデータセット上の他の代表手法と同等の結果を得る。
論文 参考訳(メタデータ) (2022-12-07T13:28:50Z) - A tutorial on $\mathbf{SE}(3)$ transformation parameterizations and
on-manifold optimization [0.0]
$mathbfSE(3)$の任意の剛変換は、変換と剛回転という2つの部分に分けられる。
このレポートは、統一的な視点で、回転部分を表す3つの一般的な選択肢をレビューします。
i) これらの表現と互いに変換するための公式との等価性。
論文 参考訳(メタデータ) (2021-03-29T22:43:49Z) - GDR-Net: Geometry-Guided Direct Regression Network for Monocular 6D
Object Pose Estimation [71.83992173720311]
単一のRGB画像からの6次元ポーズ推定はコンピュータビジョンの基本課題である。
GDR-Net(Geometry-Guided Direct Regression Network)を用いて6Dポーズをエンドツーエンドで学習する。
提案手法は, LM, LM-O, YCB-Vデータセットの最先端手法よりも優れている。
論文 参考訳(メタデータ) (2021-02-24T09:11:31Z) - An Analysis of SVD for Deep Rotation Estimation [63.97835949897361]
SVDが回転群に射影する自然な選択であることを示す理論的解析を提案する。
解析の結果,既存の表現をSVDの直交化手順に置き換えれば,多くのディープラーニングアプリケーションにおいて,技術性能の状態を得られることがわかった。
論文 参考訳(メタデータ) (2020-06-25T17:58:28Z) - Calculating Pose with Vanishing Points of Visual-Sphere Perspective
Model [0.0]
提案手法の目的は, 推定することなく, 既知の長方形対象のポーズ行列を直接取得することである。
この方法は、魚眼カメラビューのような180degの視野を超えるリアルタイムで極端な撮影装置に特化している。
論文 参考訳(メタデータ) (2020-04-19T18:39:08Z) - HP2IFS: Head Pose estimation exploiting Partitioned Iterated Function
Systems [18.402636415604373]
2次元画像から実際の頭部方向を推定することはよく知られた問題である。
フラクタル符号理論と分割反復システムを用いて入力ヘッド画像からフラクタル符号を抽出する。
提案手法は,正確なYaw/pitch/roll角値を提供する。
論文 参考訳(メタデータ) (2020-03-25T17:56:45Z) - SeqXY2SeqZ: Structure Learning for 3D Shapes by Sequentially Predicting
1D Occupancy Segments From 2D Coordinates [61.04823927283092]
本稿では,各2次元位置における関数の出力が内部の線分列である2次元関数を用いて3次元形状を表現することを提案する。
本研究では,SeqXY2SeqZと呼ばれるセック2Seqモデルを用いて,2つの任意の軸に沿った2次元座標列から3つの軸に沿った1次元位置の列への写像を学習する手法を提案する。
実験の結果,SeqXY2SeqZは広く使用されているベンチマークで最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-03-12T00:24:36Z) - PUGeo-Net: A Geometry-centric Network for 3D Point Cloud Upsampling [103.09504572409449]
PUGeo-Netと呼ばれる新しいディープニューラルネットワークを用いた一様高密度点雲を生成する手法を提案する。
その幾何学中心の性質のおかげで、PUGeo-Netはシャープな特徴を持つCADモデルとリッチな幾何学的詳細を持つスキャンされたモデルの両方でうまく機能する。
論文 参考訳(メタデータ) (2020-02-24T14:13:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。