論文の概要: Large-Scale Person Detection and Localization using Overhead Fisheye
Cameras
- arxiv url: http://arxiv.org/abs/2307.08252v1
- Date: Mon, 17 Jul 2023 05:36:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 14:45:09.338365
- Title: Large-Scale Person Detection and Localization using Overhead Fisheye
Cameras
- Title(参考訳): 魚眼カメラによる大規模人物検出と位置推定
- Authors: Lu Yang, Liulei Li, Xueshi Xin, Yifan Sun, Qing Song, Wenguan Wang
- Abstract要約: 人検出と局所化のための,最初の大規模頭上魚眼データセットを提示する。
本研究では,魚眼者検出ネットワークを構築し,魚眼者検出ネットワークを構築した。
魚眼の位置決め液は、0.5mの精度で、0.1秒以内でFOVの全人物を特定できる。
- 参考スコア(独自算出の注目度): 40.004888590123954
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Location determination finds wide applications in daily life. Instead of
existing efforts devoted to localizing tourist photos captured by perspective
cameras, in this article, we focus on devising person positioning solutions
using overhead fisheye cameras. Such solutions are advantageous in large field
of view (FOV), low cost, anti-occlusion, and unaggressive work mode (without
the necessity of cameras carried by persons). However, related studies are
quite scarce, due to the paucity of data. To stimulate research in this
exciting area, we present LOAF, the first large-scale overhead fisheye dataset
for person detection and localization. LOAF is built with many essential
features, e.g., i) the data cover abundant diversities in scenes, human pose,
density, and location; ii) it contains currently the largest number of
annotated pedestrian, i.e., 457K bounding boxes with groundtruth location
information; iii) the body-boxes are labeled as radius-aligned so as to fully
address the positioning challenge. To approach localization, we build a fisheye
person detection network, which exploits the fisheye distortions by a
rotation-equivariant training strategy and predict radius-aligned human boxes
end-to-end. Then, the actual locations of the detected persons are calculated
by a numerical solution on the fisheye model and camera altitude data.
Extensive experiments on LOAF validate the superiority of our fisheye detector
w.r.t. previous methods, and show that our whole fisheye positioning solution
is able to locate all persons in FOV with an accuracy of 0.5 m, within 0.1 s.
- Abstract(参考訳): 位置決定は日常生活に広く応用される。
本稿では,遠近カメラが捉えた観光写真のローカライズに係わる既存の取り組みに代えて,頭上魚眼カメラを用いた人物位置決めソリューションの開発に焦点をあてる。
このようなソリューションは、大視野(fov)、低コスト、独占禁止、非攻撃的な作業モード(人がカメラを運ぶ必要なしに)において有利である。
しかし、データのポークシティのため、関連する研究は非常に少ない。
このエキサイティングな領域の研究を促進するために,人検出と位置推定のための最初の大規模頭上魚眼データセットであるLOAFを提案する。
LOAFは、多くの重要な機能を持つ。
一 シーン、人間のポーズ、密度及び位置の多様な多様性をカバーすること。
二 現在最大の注釈付歩行者数、即ち、457K箱の接地位置情報を含む。
三 ボディーボックスは、位置決め課題を完全に解決するために、半径整列としてラベル付けされる。
本研究では,魚眼人物検出ネットワークを構築し,魚眼の歪みを回転同値なトレーニング戦略で活用し,エンドツーエンドで半径方向のヒトボックスを予測する。
そして、魚眼モデルとカメラ高度データの数値解により、検出した人物の実際の位置を算出する。
魚眼検出装置w.r.t.の従来手法の優越性を検証し,全魚眼測位液が0.5mの精度でfov内の全人物を0.1秒以内で検出できることを示した。
関連論文リスト
- RoFIR: Robust Fisheye Image Rectification Framework Impervious to Optical Center Deviation [88.54817424560056]
局所歪みの度合いと方向を測定する歪みベクトルマップ(DVM)を提案する。
DVMを学習することで、大域的な歪みパターンに頼ることなく、各ピクセルの局所歪みを独立に識別することができる。
事前学習段階では、歪みベクトルマップを予測し、各画素の局所歪み特徴を知覚する。
微調整段階では、魚眼画像修正のための画素単位のフローマップを予測する。
論文 参考訳(メタデータ) (2024-06-27T06:38:56Z) - FisheyeDetNet: 360° Surround view Fisheye Camera based Object Detection System for Autonomous Driving [4.972459365804512]
物体検出は自律走行における成熟した問題であり、歩行者検出は最初に展開されたアルゴリズムの1つである。
標準的なバウンディングボックスの表現は、特に周辺部において大きな放射歪みのため、魚眼カメラでは失敗する。
我々は、回転する有界箱、楕円、ポリゴンを極弧/角表現として設計し、これらの表現を分析するためにインスタンスセグメンテーションmIOUメートル法を定義する。
提案したモデルであるPhiteeyeDetNetは他より優れており、自動走行用Valeo fisheye around-viewデータセットのmAPスコアは49.5 %である。
論文 参考訳(メタデータ) (2024-04-20T18:50:57Z) - SDGE: Stereo Guided Depth Estimation for 360$^\circ$ Camera Sets [65.64958606221069]
マルチカメラシステムは、360ドル周の知覚を達成するために、しばしば自律走行に使用される。
360ドル(約3万3000円)のカメラセットは、しばしば制限または低品質のオーバーラップ領域を持ち、画像全体に対してマルチビューステレオメソッドを実現する。
重なりの重なりに多視点ステレオ結果を明示的に利用することにより、全画像の深さ推定を強化するステレオガイド深度推定法(SGDE)を提案する。
論文 参考訳(メタデータ) (2024-02-19T02:41:37Z) - FoVA-Depth: Field-of-View Agnostic Depth Estimation for Cross-Dataset
Generalization [57.98448472585241]
本研究では,広く利用可能なピンホールデータに基づいてステレオ深度推定モデルを訓練する手法を提案する。
屋内および屋外の両方のデータセットに対するアプローチの強力な一般化能力を示す。
論文 参考訳(メタデータ) (2024-01-24T20:07:59Z) - Egocentric Whole-Body Motion Capture with FisheyeViT and Diffusion-Based
Motion Refinement [65.08165593201437]
本研究では,人体と手の動きを同時に推定する単一魚眼カメラを用いて,自我中心型全体モーションキャプチャーを探索する。
この課題は、高品質なデータセットの欠如、魚眼カメラの歪み、人間の身体の自己閉塞など、重大な課題を提起する。
そこで本研究では,魚眼画像の特徴を3次元人体ポーズ予測のための3次元熱マップ表現に変換した魚眼画像の特徴を抽出する手法を提案する。
論文 参考訳(メタデータ) (2023-11-28T07:13:47Z) - Estimating Distances Between People using a Single Overhead Fisheye
Camera with Application to Social-Distancing Oversight [8.337649176647645]
屋内での人との距離をモニタリングするための2つのアプローチを提案する。
1つの方法は魚眼レンズの幾何学的モデルを利用し、もう1つはニューラルネットワークを使って3D世界距離を予測する。
アルゴリズムは1-2フィートの誤差と95%以上の精度で社会的距離違反を検出する。
論文 参考訳(メタデータ) (2023-03-21T00:50:14Z) - ARPD: Anchor-free Rotation-aware People Detection using Topview Fisheye
Camera [3.0868856870169625]
本研究では,魚眼画像中の任意回転者を検知する単一段アンカーフリー完全畳み込みネットワークARPDを提案する。
提案手法は最先端のアルゴリズムと非常に高速に動作しながら競合する。
論文 参考訳(メタデータ) (2022-01-25T05:49:50Z) - Estimating Egocentric 3D Human Pose in Global Space [70.7272154474722]
本稿では,魚眼カメラを用いた自己中心型3次元体姿勢推定法を提案する。
提案手法は, 定量的, 定性的に, 最先端の手法より優れている。
論文 参考訳(メタデータ) (2021-04-27T20:01:57Z) - Generalized Object Detection on Fisheye Cameras for Autonomous Driving:
Dataset, Representations and Baseline [5.1450366450434295]
魚眼画像における物体検出のための配向境界ボックス,楕円,ジェネリックポリゴンなどのより良い表現について検討する。
魚眼歪みモデルに最適な特性を持つ曲面境界箱モデルを設計する。
これは、自律走行シナリオのための魚眼カメラにおける物体検出に関する最初の詳細な研究である。
論文 参考訳(メタデータ) (2020-12-03T18:00:16Z) - RAPiD: Rotation-Aware People Detection in Overhead Fisheye Images [13.290341167863495]
我々は、任意指向の有界ボックスを用いて人を検出する、RAPiDと呼ばれるエンドツーエンドの人検出手法を開発した。
我々の完全畳み込みニューラルネットワークは周期的損失回転関数を用いて各境界ボックスの角度を直接回帰する。
その結果,本手法は魚眼画像の3つのデータセットに対して,最先端の結果よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-23T23:47:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。