論文の概要: Location-guided Head Pose Estimation for Fisheye Image
- arxiv url: http://arxiv.org/abs/2402.18320v1
- Date: Wed, 28 Feb 2024 13:33:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-29 14:55:50.826486
- Title: Location-guided Head Pose Estimation for Fisheye Image
- Title(参考訳): 魚眼画像のための位置誘導頭部ポーズ推定
- Authors: Bing Li, Dong Zhang, Cheng Huang, Yun Xian, Ming Li, and Dah-Jye Lee
- Abstract要約: 我々は,頭部ポーズと頭部位置のマルチタスク学習を用いて頭部ポーズを推定する,エンドツーエンドの畳み込みニューラルネットワークを開発した。
我々のネットワークは,他の最先端の1段階および2段階の手法と比較して,頭部ポーズ推定の精度を著しく向上させる。
- 参考スコア(独自算出の注目度): 15.22663220816984
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Camera with a fisheye or ultra-wide lens covers a wide field of view that
cannot be modeled by the perspective projection. Serious fisheye
\textcolor{blue}{lens} distortion in the peripheral region of the image leads
to degraded performance of the \textcolor{blue}{existing} head pose estimation
models trained on undistorted images. This paper presents a new approach for
head pose estimation that uses the knowledge of head location in the image to
reduce the negative effect of fisheye distortion. We develop an end-to-end
convolutional neural network to estimate the head pose with the multi-task
learning of head pose and head location. Our proposed network estimates the
head pose directly from the fisheye image without the operation of
rectification or calibration. We also created \textcolor{blue}{a}
fisheye-\textcolor{blue}{distorted} version of the three popular head pose
estimation datasets, BIWI, 300W-LP, and AFLW2000 for our experiments.
Experiments results show that our network remarkably improves the accuracy of
head pose estimation compared with other state-of-the-art one-stage and
two-stage methods.
- Abstract(参考訳): 魚眼または超広角レンズを備えたカメラは、視点投影でモデル化できない広い視野をカバーしている。
画像の周辺領域における厳密な魚眼{blue}{lens}歪みは、歪みのない画像に基づいて訓練された<textcolor{blue}{existing}ヘッドポーズ推定モデルの劣化性能をもたらす。
本稿では,魚眼歪みの負の効果を低減するために,画像中の頭部位置の知識を用いた頭部ポーズ推定の新しい手法を提案する。
我々は,頭部ポーズと頭部位置のマルチタスク学習を用いて頭部ポーズを推定するエンドツーエンド畳み込みニューラルネットワークを開発した。
提案ネットワークは,魚眼画像から直接頭部のポーズを補正や校正の操作なしに推定する。
また,biwi,300w-lp,aflw2000の3種類の頭部ポーズ推定データセットの<textcolor{blue}{a} fisheye-\textcolor{blue}{distorted}バージョンを作成した。
実験の結果,本ネットワークは,他の1段階および2段階の手法と比較して,頭部ポーズ推定の精度が著しく向上することがわかった。
関連論文リスト
- Egocentric Whole-Body Motion Capture with FisheyeViT and Diffusion-Based
Motion Refinement [65.08165593201437]
本研究では,人体と手の動きを同時に推定する単一魚眼カメラを用いて,自我中心型全体モーションキャプチャーを探索する。
この課題は、高品質なデータセットの欠如、魚眼カメラの歪み、人間の身体の自己閉塞など、重大な課題を提起する。
そこで本研究では,魚眼画像の特徴を3次元人体ポーズ予測のための3次元熱マップ表現に変換した魚眼画像の特徴を抽出する手法を提案する。
論文 参考訳(メタデータ) (2023-11-28T07:13:47Z) - Scene-aware Egocentric 3D Human Pose Estimation [72.57527706631964]
頭部に1台の魚眼カメラを装着したエゴセントリックな3Dポーズ推定は、仮想現実や拡張現実における多くの応用により、近年注目を集めている。
既存の方法はまだ、人間の体が非常に隠蔽されている、あるいはシーンと密接な相互作用がある、挑戦的なポーズに苦慮している。
本研究では,シーン制約による自己中心型ポーズの予測を導くシーン認識型自己中心型ポーズ推定手法を提案する。
論文 参考訳(メタデータ) (2022-12-20T21:35:39Z) - An Effective Deep Network for Head Pose Estimation without Keypoints [0.0]
本稿では,頭部ポーズ推定問題を効果的に解決する軽量モデルを提案する。
提案手法は,最先端の頭部ポーズ推定手法と比較して精度を著しく向上させる。
当社のモデルでは、Tesla V100を推測すると、リアルタイムの速度は300FPS($sim$300 FPS)です。
論文 参考訳(メタデータ) (2022-10-25T01:57:04Z) - Towards Accurate Reconstruction of 3D Scene Shape from A Single
Monocular Image [91.71077190961688]
まず、未知のスケールまで深さを予測し、単一の単眼画像からシフトする2段階のフレームワークを提案する。
次に、3Dポイントの雲のデータを利用して、奥行きの変化とカメラの焦点距離を予測し、3Dシーンの形状を復元します。
我々は9つの未知のデータセットで深度モデルを検証し、ゼロショット評価で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-08-28T16:20:14Z) - TriHorn-Net: A Model for Accurate Depth-Based 3D Hand Pose Estimation [8.946655323517092]
TriHorn-Netは、ディープイメージのポーズ推定精度を改善するために、特定のイノベーションを使用する新しいモデルである。
第1の革新は、深度画像空間における2次元関節位置推定への3次元手ポーズ推定の分解である。
第2のイノベーションはPixDropoutで、私たちの知る限り、手深度画像のための最初の外見に基づくデータ拡張手法です。
論文 参考訳(メタデータ) (2022-06-14T19:08:42Z) - FisheyeEX: Polar Outpainting for Extending the FoV of Fisheye Lens [84.12722334460022]
魚眼レンズは、広視野(FoV)のため、計算写真や運転支援における応用が増大する
本稿では,魚眼レンズのFoVを拡張した魚眼EX法を提案する。
以上の結果から,本手法は従来の魚眼画像よりも27%多く,最先端の手法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2022-06-12T21:38:50Z) - Estimating Egocentric 3D Human Pose in Global Space [70.7272154474722]
本稿では,魚眼カメラを用いた自己中心型3次元体姿勢推定法を提案する。
提案手法は, 定量的, 定性的に, 最先端の手法より優れている。
論文 参考訳(メタデータ) (2021-04-27T20:01:57Z) - SelfPose: 3D Egocentric Pose Estimation from a Headset Mounted Camera [97.0162841635425]
頭部装着型VR装置の縁に設置した下向きの魚眼カメラから撮影した単眼画像から,エゴセントリックな3Dボディポーズ推定法を提案する。
この特異な視点は、厳密な自己閉塞と視点歪みを伴う、独特の視覚的な外観のイメージに繋がる。
本稿では,2次元予測の不確実性を考慮した新しいマルチブランチデコーダを用いたエンコーダデコーダアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-11-02T16:18:06Z) - WHENet: Real-time Fine-Grained Estimation for Wide Range Head Pose [1.8275108630751844]
本稿では,1枚のRGB画像から全方向のヘッドヤウからオイラー角度を推定するエンド・ツー・エンドのヘッドプレース推定ネットワークを提案する。
ネットワークは、損失関数の変更と広帯域推定に適応したトレーニング戦略を備えたマルチロスアプローチに基づいて構築されている。
論文 参考訳(メタデータ) (2020-05-20T20:53:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。