論文の概要: NLML-HPE: Head Pose Estimation with Limited Data via Manifold Learning
- arxiv url: http://arxiv.org/abs/2507.18429v1
- Date: Thu, 24 Jul 2025 14:08:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-25 15:10:43.741541
- Title: NLML-HPE: Head Pose Estimation with Limited Data via Manifold Learning
- Title(参考訳): NLML-HPE:マニフォールド学習による限定データによる頭部電位推定
- Authors: Mahdi Ghafourian, Federico M. Sukno,
- Abstract要約: 頭部ポーズ推定(HPE)は、人間とコンピュータの相互作用や顔認識など、様々なコンピュータビジョンアプリケーションにおいて重要な役割を果たす。
非線形多様体学習による限られた訓練データを用いた頭部ポーズ推定のための新しい深層学習手法を提案する。
本手法は,顔のランドマークから物体の回転特性を正確に把握するので,限られたトレーニングデータでリアルタイムのパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 0.8716913598251385
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Head pose estimation (HPE) plays a critical role in various computer vision applications such as human-computer interaction and facial recognition. In this paper, we propose a novel deep learning approach for head pose estimation with limited training data via non-linear manifold learning called NLML-HPE. This method is based on the combination of tensor decomposition (i.e., Tucker decomposition) and feed forward neural networks. Unlike traditional classification-based approaches, our method formulates head pose estimation as a regression problem, mapping input landmarks into a continuous representation of pose angles. To this end, our method uses tensor decomposition to split each Euler angle (yaw, pitch, roll) to separate subspaces and models each dimension of the underlying manifold as a cosine curve. We address two key challenges: 1. Almost all HPE datasets suffer from incorrect and inaccurate pose annotations. Hence, we generated a precise and consistent 2D head pose dataset for our training set by rotating 3D head models for a fixed set of poses and rendering the corresponding 2D images. 2. We achieved real-time performance with limited training data as our method accurately captures the nature of rotation of an object from facial landmarks. Once the underlying manifold for rotation around each axis is learned, the model is very fast in predicting unseen data. Our training and testing code is available online along with our trained models: https: //github.com/MahdiGhafoorian/NLML_HPE.
- Abstract(参考訳): 頭部ポーズ推定(HPE)は、人間とコンピュータの相互作用や顔認識など、様々なコンピュータビジョンアプリケーションにおいて重要な役割を果たす。
本論文では,NLML-HPEと呼ばれる非線形多様体学習による限られた学習データを用いた頭部ポーズ推定のための新しいディープラーニング手法を提案する。
この方法はテンソル分解(タッカー分解)とフォワードニューラルネットワークの組み合わせに基づいている。
従来の分類に基づくアプローチとは異なり,本手法は,入力ランドマークをポーズ角の連続表現にマッピングする,回帰問題として頭部ポーズ推定を定式化する。
この目的のために、本手法はテンソル分解を用いて、各オイラー角 (yaw, pitch, roll) を分割し、基底多様体の各次元と部分空間を余弦曲線としてモデル化する。
私たちは2つの主要な課題に取り組みます。
1. ほぼすべてのHPEデータセットは、不正確で不正確なポーズアノテーションに悩まされている。
そこで我々は,固定されたポーズの3次元頭部モデルを回転させて,対応する2次元画像のレンダリングを行うことにより,トレーニングセットの正確で一貫した2次元頭部ポーズデータセットを生成した。
2) 顔のランドマークから物体の回転特性を正確に把握する手法として, 訓練データに制限を加えたリアルタイム性能を実現した。
各軸のまわりを回転させる基礎となる多様体が学習されると、モデルは目に見えないデータを予測するのに非常に速い。
トレーニングとテストのコードは、トレーニングされたモデルとともにオンラインで利用可能です。
関連論文リスト
- Joint angle model based learning to refine kinematic human pose estimation [8.6527127612359]
現在のヒトのポーズ推定(HPE)は、キーポイント認識における時折エラーとキーポイント軌跡におけるランダムな変動に悩まされる。
本稿では,関節角度に基づくモデリングにより,難易度を克服する手法を提案する。
双方向リカレントネットワークは、確立されたHRNetの推定を洗練するための後処理モジュールとして設計されている。
論文 参考訳(メタデータ) (2025-07-15T08:16:39Z) - CLERF: Contrastive LEaRning for Full Range Head Pose Estimation [8.938918988246128]
頭部ポーズ推定(HPE)における表現学習のための新しいフレームワークを提案する。
3次元生成対向ネットワーク(3D-Aware GAN)の最近の進歩
論文 参考訳(メタデータ) (2024-12-03T01:08:03Z) - CameraHMR: Aligning People with Perspective [54.05758012879385]
モノクロ画像からの正確な3次元ポーズと形状推定の課題に対処する。
既存のトレーニングデータセットには、擬似基底真理(pGT)を持つ実画像が含まれている。
pGTの精度を向上させる2つの貢献をしている。
論文 参考訳(メタデータ) (2024-11-12T19:12:12Z) - Unsupervised Learning of Category-Level 3D Pose from Object-Centric Videos [15.532504015622159]
カテゴリーレベルの3Dポーズ推定は、コンピュータビジョンとロボット工学において基本的に重要な問題である。
カテゴリーレベルの3Dポーズを,カジュアルに撮られた対象中心の動画からのみ推定する学習の課題に取り組む。
論文 参考訳(メタデータ) (2024-07-05T09:43:05Z) - UPose3D: Uncertainty-Aware 3D Human Pose Estimation with Cross-View and Temporal Cues [55.69339788566899]
UPose3Dは多視点人間のポーズ推定のための新しいアプローチである。
直接的な3Dアノテーションを必要とせずに、堅牢性と柔軟性を向上させる。
論文 参考訳(メタデータ) (2024-04-23T00:18:00Z) - NICP: Neural ICP for 3D Human Registration at Scale [35.631505786332454]
本研究では,3次元人間登録のためのニューラルネットワーク拡張型登録手法NSRを提案する。
NSRは、数千の形状と10以上の異なるデータソースを一般化し、スケールする。
我々の重要な貢献は、ICPスタイルの自己教師型タスクであるNICPである。
論文 参考訳(メタデータ) (2023-12-21T16:54:09Z) - Semi-Supervised 2D Human Pose Estimation Driven by Position
Inconsistency Pseudo Label Correction Module [74.80776648785897]
i) 大規模モデルと軽量モデルの間で対話的なトレーニングを行う場合, 大規模モデルのガイドに擬似的な軽量モデルラベルを用いる。
位置整合性擬似ラベル補正モジュール(SSPCM)により駆動される半教師付き2次元ポーズ推定フレームワークを提案する。
学生モデルの性能向上のために,擬似キーポイント認識に基づく半教師付きカットオクルードを用いて,より硬く効果的なサンプルを生成する。
論文 参考訳(メタデータ) (2023-03-08T02:57:05Z) - Learning 3D Human Pose Estimation from Dozens of Datasets using a
Geometry-Aware Autoencoder to Bridge Between Skeleton Formats [80.12253291709673]
本稿では,アフィン結合型オートエンコーダ(ACAE)法を提案する。
このアプローチは、28人の人間のポーズデータセットを使って1つのモデルを監督する、極端なマルチデータセット体制にスケールします。
論文 参考訳(メタデータ) (2022-12-29T22:22:49Z) - Multi-task Learning for Camera Calibration [3.274290296343038]
一対の画像から内在性(主点オフセットと焦点長)と外因性(ベースライン,ピッチ,翻訳)を予測できるユニークな手法を提案する。
カメラモデルニューラルネットワークを用いて3Dポイントを再構成し、再構成の損失を利用してカメラ仕様を得ることにより、この革新的なカメラ投影損失(CPL)法により、所望のパラメータを推定できる。
論文 参考訳(メタデータ) (2022-11-22T17:39:31Z) - Decoupled Multi-task Learning with Cyclical Self-Regulation for Face
Parsing [71.19528222206088]
顔解析のための周期的自己統制型デカップリング型マルチタスク学習を提案する。
具体的には、DML-CSRは、顔解析、バイナリエッジ、カテゴリエッジ検出を含むマルチタスクモデルを設計する。
提案手法は,Helen,CelebA-HQ,LapaMaskのデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-03-28T02:12:30Z) - Learning Temporal 3D Human Pose Estimation with Pseudo-Labels [3.0954251281114513]
自己監督型3次元ポーズ推定のための簡易かつ効果的なアプローチを提案する。
我々は、マルチビューカメラシステムの2Dボディポーズ推定を三角測量に頼っている。
提案手法はHuman3.6MとMPI-INF-3DHPベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2021-10-14T17:40:45Z) - NeuroMorph: Unsupervised Shape Interpolation and Correspondence in One
Go [109.88509362837475]
入力2つの3次元形状を考慮したニューラルネットワークアーキテクチャであるNeuroMorphを提案する。
NeuroMorphはそれらの間のスムーズかつポイントツーポイント対応を生成する。
異なる対象カテゴリの非等尺性ペアを含む、さまざまな入力形状に対してうまく機能する。
論文 参考訳(メタデータ) (2021-06-17T12:25:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。