論文の概要: Location-guided Head Pose Estimation for Fisheye Image
- arxiv url: http://arxiv.org/abs/2402.18320v1
- Date: Wed, 28 Feb 2024 13:33:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-29 14:55:50.826486
- Title: Location-guided Head Pose Estimation for Fisheye Image
- Title(参考訳): 魚眼画像のための位置誘導頭部ポーズ推定
- Authors: Bing Li, Dong Zhang, Cheng Huang, Yun Xian, Ming Li, and Dah-Jye Lee
- Abstract要約: 我々は,頭部ポーズと頭部位置のマルチタスク学習を用いて頭部ポーズを推定する,エンドツーエンドの畳み込みニューラルネットワークを開発した。
我々のネットワークは,他の最先端の1段階および2段階の手法と比較して,頭部ポーズ推定の精度を著しく向上させる。
- 参考スコア(独自算出の注目度): 15.22663220816984
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Camera with a fisheye or ultra-wide lens covers a wide field of view that
cannot be modeled by the perspective projection. Serious fisheye
\textcolor{blue}{lens} distortion in the peripheral region of the image leads
to degraded performance of the \textcolor{blue}{existing} head pose estimation
models trained on undistorted images. This paper presents a new approach for
head pose estimation that uses the knowledge of head location in the image to
reduce the negative effect of fisheye distortion. We develop an end-to-end
convolutional neural network to estimate the head pose with the multi-task
learning of head pose and head location. Our proposed network estimates the
head pose directly from the fisheye image without the operation of
rectification or calibration. We also created \textcolor{blue}{a}
fisheye-\textcolor{blue}{distorted} version of the three popular head pose
estimation datasets, BIWI, 300W-LP, and AFLW2000 for our experiments.
Experiments results show that our network remarkably improves the accuracy of
head pose estimation compared with other state-of-the-art one-stage and
two-stage methods.
- Abstract(参考訳): 魚眼または超広角レンズを備えたカメラは、視点投影でモデル化できない広い視野をカバーしている。
画像の周辺領域における厳密な魚眼{blue}{lens}歪みは、歪みのない画像に基づいて訓練された<textcolor{blue}{existing}ヘッドポーズ推定モデルの劣化性能をもたらす。
本稿では,魚眼歪みの負の効果を低減するために,画像中の頭部位置の知識を用いた頭部ポーズ推定の新しい手法を提案する。
我々は,頭部ポーズと頭部位置のマルチタスク学習を用いて頭部ポーズを推定するエンドツーエンド畳み込みニューラルネットワークを開発した。
提案ネットワークは,魚眼画像から直接頭部のポーズを補正や校正の操作なしに推定する。
また,biwi,300w-lp,aflw2000の3種類の頭部ポーズ推定データセットの<textcolor{blue}{a} fisheye-\textcolor{blue}{distorted}バージョンを作成した。
実験の結果,本ネットワークは,他の1段階および2段階の手法と比較して,頭部ポーズ推定の精度が著しく向上することがわかった。
関連論文リスト
- FisheyeDepth: A Real Scale Self-Supervised Depth Estimation Model for Fisheye Camera [8.502741852406904]
魚眼カメラに適した自己監督深度推定モデルである魚眼深度について述べる。
魚眼カメラモデルを訓練中の投射と再投射の段階に組み込んで画像歪みの処理を行う。
また、連続するフレーム間の幾何学的投影に実際のポーズ情報を組み込んで、従来のポーズネットワークで推定されたポーズを置き換える。
論文 参考訳(メタデータ) (2024-09-23T14:31:42Z) - RoFIR: Robust Fisheye Image Rectification Framework Impervious to Optical Center Deviation [88.54817424560056]
局所歪みの度合いと方向を測定する歪みベクトルマップ(DVM)を提案する。
DVMを学習することで、大域的な歪みパターンに頼ることなく、各ピクセルの局所歪みを独立に識別することができる。
事前学習段階では、歪みベクトルマップを予測し、各画素の局所歪み特徴を知覚する。
微調整段階では、魚眼画像修正のための画素単位のフローマップを予測する。
論文 参考訳(メタデータ) (2024-06-27T06:38:56Z) - Egocentric Whole-Body Motion Capture with FisheyeViT and Diffusion-Based
Motion Refinement [65.08165593201437]
本研究では,人体と手の動きを同時に推定する単一魚眼カメラを用いて,自我中心型全体モーションキャプチャーを探索する。
この課題は、高品質なデータセットの欠如、魚眼カメラの歪み、人間の身体の自己閉塞など、重大な課題を提起する。
そこで本研究では,魚眼画像の特徴を3次元人体ポーズ予測のための3次元熱マップ表現に変換した魚眼画像の特徴を抽出する手法を提案する。
論文 参考訳(メタデータ) (2023-11-28T07:13:47Z) - An Effective Deep Network for Head Pose Estimation without Keypoints [0.0]
本稿では,頭部ポーズ推定問題を効果的に解決する軽量モデルを提案する。
提案手法は,最先端の頭部ポーズ推定手法と比較して精度を著しく向上させる。
当社のモデルでは、Tesla V100を推測すると、リアルタイムの速度は300FPS($sim$300 FPS)です。
論文 参考訳(メタデータ) (2022-10-25T01:57:04Z) - TriHorn-Net: A Model for Accurate Depth-Based 3D Hand Pose Estimation [8.946655323517092]
TriHorn-Netは、ディープイメージのポーズ推定精度を改善するために、特定のイノベーションを使用する新しいモデルである。
第1の革新は、深度画像空間における2次元関節位置推定への3次元手ポーズ推定の分解である。
第2のイノベーションはPixDropoutで、私たちの知る限り、手深度画像のための最初の外見に基づくデータ拡張手法です。
論文 参考訳(メタデータ) (2022-06-14T19:08:42Z) - FisheyeEX: Polar Outpainting for Extending the FoV of Fisheye Lens [84.12722334460022]
魚眼レンズは、広視野(FoV)のため、計算写真や運転支援における応用が増大する
本稿では,魚眼レンズのFoVを拡張した魚眼EX法を提案する。
以上の結果から,本手法は従来の魚眼画像よりも27%多く,最先端の手法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2022-06-12T21:38:50Z) - Estimating Egocentric 3D Human Pose in Global Space [70.7272154474722]
本稿では,魚眼カメラを用いた自己中心型3次元体姿勢推定法を提案する。
提案手法は, 定量的, 定性的に, 最先端の手法より優れている。
論文 参考訳(メタデータ) (2021-04-27T20:01:57Z) - SelfPose: 3D Egocentric Pose Estimation from a Headset Mounted Camera [97.0162841635425]
頭部装着型VR装置の縁に設置した下向きの魚眼カメラから撮影した単眼画像から,エゴセントリックな3Dボディポーズ推定法を提案する。
この特異な視点は、厳密な自己閉塞と視点歪みを伴う、独特の視覚的な外観のイメージに繋がる。
本稿では,2次元予測の不確実性を考慮した新しいマルチブランチデコーダを用いたエンコーダデコーダアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-11-02T16:18:06Z) - Calibrating Self-supervised Monocular Depth Estimation [77.77696851397539]
近年、ニューラルネットワークが深度を学習し、画像のシーケンスに変化を起こさせる能力を示す方法は、訓練信号として自己スーパービジョンのみを使用している。
カメラの構成や環境に関する事前情報を取り入れることで,センサの追加に頼ることなく,自己教師型定式化を用いて,スケールのあいまいさを排除し,深度を直接予測できることを示す。
論文 参考訳(メタデータ) (2020-09-16T14:35:45Z) - WHENet: Real-time Fine-Grained Estimation for Wide Range Head Pose [1.8275108630751844]
本稿では,1枚のRGB画像から全方向のヘッドヤウからオイラー角度を推定するエンド・ツー・エンドのヘッドプレース推定ネットワークを提案する。
ネットワークは、損失関数の変更と広帯域推定に適応したトレーニング戦略を備えたマルチロスアプローチに基づいて構築されている。
論文 参考訳(メタデータ) (2020-05-20T20:53:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。