論文の概要: RAPiD: Rotation-Aware People Detection in Overhead Fisheye Images
- arxiv url: http://arxiv.org/abs/2005.11623v1
- Date: Sat, 23 May 2020 23:47:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 03:45:16.782512
- Title: RAPiD: Rotation-Aware People Detection in Overhead Fisheye Images
- Title(参考訳): 頭上魚眼画像における回転認識型人物検出
- Authors: Zhihao Duan, M. Ozan Tezcan, Hayato Nakamura, Prakash Ishwar, Janusz
Konrad
- Abstract要約: 我々は、任意指向の有界ボックスを用いて人を検出する、RAPiDと呼ばれるエンドツーエンドの人検出手法を開発した。
我々の完全畳み込みニューラルネットワークは周期的損失回転関数を用いて各境界ボックスの角度を直接回帰する。
その結果,本手法は魚眼画像の3つのデータセットに対して,最先端の結果よりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 13.290341167863495
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent methods for people detection in overhead, fisheye images either use
radially-aligned bounding boxes to represent people, assuming people always
appear along image radius or require significant pre-/post-processing which
radically increases computational complexity. In this work, we develop an
end-to-end rotation-aware people detection method, named RAPiD, that detects
people using arbitrarily-oriented bounding boxes. Our fully-convolutional
neural network directly regresses the angle of each bounding box using a
periodic loss function, which accounts for angle periodicities. We have also
created a new dataset with spatio-temporal annotations of rotated bounding
boxes, for people detection as well as other vision tasks in overhead fisheye
videos. We show that our simple, yet effective method outperforms
state-of-the-art results on three fisheye-image datasets. Code and dataset are
available at http://vip.bu.edu/rapid .
- Abstract(参考訳): 近年,魚眼画像は画像半径に沿って常に現れるか,あるいは計算複雑性を劇的に増大させる重要な前処理・後処理を必要とすると仮定して,人を表現するために放射整列ボックスを使用している。
本研究では、任意指向の拘束箱を用いて人を検出する、RAPiDと呼ばれるエンドツーエンドの回転認識人検出手法を開発する。
我々の完全畳み込みニューラルネットワークは、周期的損失関数を用いて各境界ボックスの角度を直接回帰する。
我々はまた、魚眼ビデオの視覚タスクだけでなく、人物検出のための、回転した境界ボックスの時空間的アノテーションを備えた新しいデータセットも作成しました。
3つの魚眼画像データセットにおいて, 単純かつ効果的な手法が最先端の結果を上回っていることを示す。
コードとデータセットはhttp://vip.bu.edu/rapidで利用可能である。
関連論文リスト
- FisheyeDetNet: 360° Surround view Fisheye Camera based Object Detection System for Autonomous Driving [4.972459365804512]
物体検出は自律走行における成熟した問題であり、歩行者検出は最初に展開されたアルゴリズムの1つである。
標準的なバウンディングボックスの表現は、特に周辺部において大きな放射歪みのため、魚眼カメラでは失敗する。
我々は、回転する有界箱、楕円、ポリゴンを極弧/角表現として設計し、これらの表現を分析するためにインスタンスセグメンテーションmIOUメートル法を定義する。
提案したモデルであるPhiteeyeDetNetは他より優れており、自動走行用Valeo fisheye around-viewデータセットのmAPスコアは49.5 %である。
論文 参考訳(メタデータ) (2024-04-20T18:50:57Z) - NeRF-Det++: Incorporating Semantic Cues and Perspective-aware Depth
Supervision for Indoor Multi-View 3D Detection [72.0098999512727]
NeRF-Detは、NeRFを用いた屋内マルチビュー3次元検出において、表現学習の強化による優れた性能を実現している。
セマンティックエンハンスメント(セマンティックエンハンスメント)、パースペクティブ・アウェア・サンプリング(パースペクティブ・アウェア・サンプリング)、および順序深度監視を含む3つのソリューションを提案する。
結果として得られたアルゴリズムであるNeRF-Det++は、ScanNetV2とAR KITScenesデータセットで魅力的なパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-02-22T11:48:06Z) - Large-Scale Person Detection and Localization using Overhead Fisheye
Cameras [40.004888590123954]
人検出と局所化のための,最初の大規模頭上魚眼データセットを提示する。
本研究では,魚眼者検出ネットワークを構築し,魚眼者検出ネットワークを構築した。
魚眼の位置決め液は、0.5mの精度で、0.1秒以内でFOVの全人物を特定できる。
論文 参考訳(メタデータ) (2023-07-17T05:36:01Z) - Deep Dynamic Scene Deblurring from Optical Flow [53.625999196063574]
汚れは視覚的により快適な写真を提供し、写真がより便利になる。
非均一な曖昧さを数学的にモデル化することは困難である。
我々は,難解な特徴から鮮明な画像を復元する畳み込みニューラルネットワーク(CNN)を開発した。
論文 参考訳(メタデータ) (2023-01-18T06:37:21Z) - FuNNscope: Visual microscope for interactively exploring the loss
landscape of fully connected neural networks [77.34726150561087]
ニューラルネットワークの高次元景観特性を探索する方法を示す。
我々は、小さなニューラルネットワークの観測結果をより複雑なシステムに一般化する。
インタラクティブダッシュボードは、いくつかのアプリケーションネットワークを開放する。
論文 参考訳(メタデータ) (2022-04-09T16:41:53Z) - ARPD: Anchor-free Rotation-aware People Detection using Topview Fisheye
Camera [3.0868856870169625]
本研究では,魚眼画像中の任意回転者を検知する単一段アンカーフリー完全畳み込みネットワークARPDを提案する。
提案手法は最先端のアルゴリズムと非常に高速に動作しながら競合する。
論文 参考訳(メタデータ) (2022-01-25T05:49:50Z) - DARDet: A Dense Anchor-free Rotated Object Detector in Aerial Images [11.45718985586972]
空中画像における回転物体検出のための高密度アンカーフリー回転物体検出器(DARDet)を提案する。
我々のDARDetは、特徴マップの各前景ピクセルで回転したボックスの5つのパラメータを直接予測する。
提案手法は, 一般的に使用されている3つの空中オブジェクトデータセットに対して, 最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-10-03T15:28:14Z) - Data Augmentation for Object Detection via Differentiable Neural
Rendering [71.00447761415388]
注釈付きデータが乏しい場合、堅牢なオブジェクト検出器を訓練することは困難です。
この問題に対処する既存のアプローチには、ラベル付きデータからラベル付きデータを補間する半教師付き学習が含まれる。
オブジェクト検出のためのオフラインデータ拡張手法を導入し、新しいビューでトレーニングデータを意味的に補間する。
論文 参考訳(メタデータ) (2021-03-04T06:31:06Z) - Dense Label Encoding for Boundary Discontinuity Free Rotation Detection [69.75559390700887]
本稿では,分類に基づく比較的研究の少ない方法論について検討する。
我々は2つの側面でフロンティアを推し進めるための新しい手法を提案する。
航空画像のための大規模公開データセットの実験と視覚解析は,我々のアプローチの有効性を示している。
論文 参考訳(メタデータ) (2020-11-19T05:42:02Z) - Towards Dense People Detection with Deep Learning and Depth images [9.376814409561726]
本稿では,1つの深度画像から複数の人物を検出するDNNシステムを提案する。
我々のニューラルネットワークは深度画像を処理し、画像座標の確率マップを出力する。
我々は、この戦略が効果的であることを示し、トレーニング中に使用するものと異なるシーンで動作するように一般化したネットワークを創出する。
論文 参考訳(メタデータ) (2020-07-14T16:43:02Z) - DOPS: Learning to Detect 3D Objects and Predict their 3D Shapes [54.239416488865565]
LIDARデータに対する高速な1段3次元物体検出法を提案する。
我々の手法の中核となる新規性は高速かつシングルパスアーキテクチャであり、どちらも3次元の物体を検出し、それらの形状を推定する。
提案手法は,ScanNetシーンのオブジェクト検出で5%,オープンデータセットでは3.4%の精度で結果が得られた。
論文 参考訳(メタデータ) (2020-04-02T17:48:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。