論文の概要: Systematic Comparison of Projection Methods for Monocular 3D Human Pose Estimation on Fisheye Images
- arxiv url: http://arxiv.org/abs/2506.19747v1
- Date: Tue, 24 Jun 2025 16:05:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 19:48:23.713009
- Title: Systematic Comparison of Projection Methods for Monocular 3D Human Pose Estimation on Fisheye Images
- Title(参考訳): 魚眼画像を用いた単眼3次元人物位置推定のための投影手法の体系的比較
- Authors: Stephanie Käs, Sven Peter, Henrik Thillmann, Anton Burenko, David Benjamin Adrian, Dennis Mack, Timm Linder, Bastian Leibe,
- Abstract要約: 本研究では, ピンホール, 等距離, 二重球面カメラモデル, 円筒投影法が人の3次元ポーズ推定精度に与える影響について検討した。
クローズアップシナリオではピンホールプロジェクションが不十分であり、最適プロジェクション法は人間のポーズによってカバーされるFOVによって変化する。
本稿では,予測品質を向上させるため,検出バウンディングボックスに基づいて適切な投影モデルを選択する手法を提案する。
- 参考スコア(独自算出の注目度): 8.719294151596705
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fisheye cameras offer robots the ability to capture human movements across a wider field of view (FOV) than standard pinhole cameras, making them particularly useful for applications in human-robot interaction and automotive contexts. However, accurately detecting human poses in fisheye images is challenging due to the curved distortions inherent to fisheye optics. While various methods for undistorting fisheye images have been proposed, their effectiveness and limitations for poses that cover a wide FOV has not been systematically evaluated in the context of absolute human pose estimation from monocular fisheye images. To address this gap, we evaluate the impact of pinhole, equidistant and double sphere camera models, as well as cylindrical projection methods, on 3D human pose estimation accuracy. We find that in close-up scenarios, pinhole projection is inadequate, and the optimal projection method varies with the FOV covered by the human pose. The usage of advanced fisheye models like the double sphere model significantly enhances 3D human pose estimation accuracy. We propose a heuristic for selecting the appropriate projection model based on the detection bounding box to enhance prediction quality. Additionally, we introduce and evaluate on our novel dataset FISHnCHIPS, which features 3D human skeleton annotations in fisheye images, including images from unconventional angles, such as extreme close-ups, ground-mounted cameras, and wide-FOV poses, available at: https://www.vision.rwth-aachen.de/fishnchips
- Abstract(参考訳): 魚眼カメラは、標準的なピンホールカメラよりも広い視野(FOV)で人間の動きを捉えることができる。
しかし、魚眼画像中の人間のポーズを正確に検出することは、魚眼光の歪みが湾曲しているため困難である。
魚眼画像を歪ませる様々な方法が提案されているが, 魚眼画像から絶対的人体ポーズ推定の文脈において, 広範囲のFOVをカバーするポーズの有効性と限界は体系的に評価されていない。
このギャップに対処するために, ピンホール, 等距離, 二重球面カメラモデルおよび円筒投影法が3次元人のポーズ推定精度に与える影響を評価する。
クローズアップシナリオではピンホールプロジェクションが不十分であり、最適プロジェクション法は人間のポーズによってカバーされるFOVによって変化する。
ダブルスフィアモデルのような高度な魚眼モデルの使用は、人間のポーズ推定精度を著しく向上させる。
本稿では,検出バウンディングボックスに基づいて適切な投影モデルを選択するヒューリスティックを提案し,予測品質を向上する。
さらに,魚眼画像に3次元の人骨アノテーションを付加した新しいデータセットFISHnCHIPSを紹介し,評価を行った。
関連論文リスト
- Fish2Mesh Transformer: 3D Human Mesh Recovery from Egocentric Vision [0.3387808070669509]
エゴセントリックな人体推定は、ウェアラブルカメラのファーストパーソナリティの観点から、ユーザーの身体のポーズと形状を推測することができる。
そこで,魚眼を意識したトランスフォーマーモデルであるFish2Meshを紹介した。
実験により、Fish2Meshは従来の最先端の3D HMRモデルより優れていることが示された。
論文 参考訳(メタデータ) (2025-03-08T06:34:49Z) - FisheyeDepth: A Real Scale Self-Supervised Depth Estimation Model for Fisheye Camera [8.502741852406904]
魚眼カメラに適した自己監督深度推定モデルである魚眼深度について述べる。
魚眼カメラモデルを訓練中の投射と再投射の段階に組み込んで画像歪みの処理を行う。
また、連続するフレーム間の幾何学的投影に実際のポーズ情報を組み込んで、従来のポーズネットワークで推定されたポーズを置き換える。
論文 参考訳(メタデータ) (2024-09-23T14:31:42Z) - Egocentric Whole-Body Motion Capture with FisheyeViT and Diffusion-Based
Motion Refinement [65.08165593201437]
本研究では,人体と手の動きを同時に推定する単一魚眼カメラを用いて,自我中心型全体モーションキャプチャーを探索する。
この課題は、高品質なデータセットの欠如、魚眼カメラの歪み、人間の身体の自己閉塞など、重大な課題を提起する。
そこで本研究では,魚眼画像の特徴を3次元人体ポーズ予測のための3次元熱マップ表現に変換した魚眼画像の特徴を抽出する手法を提案する。
論文 参考訳(メタデータ) (2023-11-28T07:13:47Z) - Scene-Aware 3D Multi-Human Motion Capture from a Single Camera [83.06768487435818]
静止カメラで記録された1枚のRGBビデオから、シーン内の複数の人間の3次元位置を推定し、その身体形状と調音を推定する問題を考察する。
コンピュータビジョンの最近の進歩を,2次元の人体関節,関節角度,正規化不均等マップ,人間のセグメンテーションマスクなど,様々なモダリティのための大規模事前訓練モデルを用いて活用している。
特に,2次元の関節と関節角度を用いた正規化不均等予測から,シーン深度とユニークな人格尺度を推定する。
論文 参考訳(メタデータ) (2023-01-12T18:01:28Z) - Estimating Egocentric 3D Human Pose in Global Space [70.7272154474722]
本稿では,魚眼カメラを用いた自己中心型3次元体姿勢推定法を提案する。
提案手法は, 定量的, 定性的に, 最先端の手法より優れている。
論文 参考訳(メタデータ) (2021-04-27T20:01:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。