論文の概要: Segmentation-Based Bounding Box Generation for Omnidirectional
Pedestrian Detection
- arxiv url: http://arxiv.org/abs/2104.13764v3
- Date: Sun, 4 Jun 2023 01:20:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 06:12:26.497712
- Title: Segmentation-Based Bounding Box Generation for Omnidirectional
Pedestrian Detection
- Title(参考訳): 一方向歩行者検出のためのセグメンテーションベースバウンディングボックス生成
- Authors: Masato Tamura, Tomoaki Yoshinaga
- Abstract要約: 一方向歩行者検出のためのセグメンテーションに基づくバウンディングボックス生成法を提案する。
視野が広いため、全方位カメラは標準カメラよりも費用対効果が高い。
標準歩行者検出器は、全方位画像における歩行者の外観が任意の角度に回転する可能性があるため、大幅に劣化する可能性が高い。
- 参考スコア(独自算出の注目度): 8.122270502556374
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a segmentation-based bounding box generation method for
omnidirectional pedestrian detection that enables detectors to tightly fit
bounding boxes to pedestrians without omnidirectional images for training. Due
to the wide angle of view, omnidirectional cameras are more cost-effective than
standard cameras and hence suitable for large-scale monitoring. The problem of
using omnidirectional cameras for pedestrian detection is that the performance
of standard pedestrian detectors is likely to be substantially degraded because
pedestrians' appearance in omnidirectional images may be rotated to any angle.
Existing methods mitigate this issue by transforming images during inference.
However, the transformation substantially degrades the detection accuracy and
speed. A recently proposed method obviates the transformation by training
detectors with omnidirectional images, which instead incurs huge annotation
costs. To obviate both the transformation and annotation works, we leverage an
existing large-scale object detection dataset. We train a detector with rotated
images and tightly fitted bounding box annotations generated from the
segmentation annotations in the dataset, resulting in detecting pedestrians in
omnidirectional images with tightly fitted bounding boxes. We also develop
pseudo-fisheye distortion augmentation, which further enhances the performance.
Extensive analysis shows that our detector successfully fits bounding boxes to
pedestrians and demonstrates substantial performance improvement.
- Abstract(参考訳): そこで本研究では,全方位歩行者検出のためのセグメンテーションに基づく境界ボックス生成法を提案する。
視野が広いため、全方位カメラは標準カメラよりも費用対効果が高く、大規模監視に適している。
全方位カメラを用いた歩行者検出の問題点は、全方位画像における歩行者の外観が任意の角度に回転する可能性があるため、標準歩行者検知器の性能が大幅に低下する可能性があることである。
既存の方法は、推論中に画像を変換することでこの問題を軽減する。
しかし、変換は検出精度と速度を大幅に低下させる。
最近提案された手法は、全方位画像を用いた検出器の訓練によって変換を省略する。
変換とアノテーションの動作を損なうため、我々は既存の大規模オブジェクト検出データセットを活用している。
我々は、データセットのセグメンテーションアノテーションから生成された回転画像と密着バウンディングボックスアノテーションで検出器を訓練し、密着バウンディングボックスで全方位画像中の歩行者を検出する。
また,擬似魚眼歪み増強法を開発し,さらなる性能向上を図る。
広範囲な分析により,我々の検出器は歩行者にバウンディングボックスを適合させることに成功し,大幅な性能向上を示した。
関連論文リスト
- Zone Evaluation: Revealing Spatial Bias in Object Detection [69.59295428233844]
物体検出器の基本的限界は、それらが「空間バイアス」に苦しむことである。
本稿では,ゾーン間の検出性能を計測する新しいゾーン評価プロトコルを提案する。
初めて数値的な結果が得られ、対象検出器はゾーンにわたって非常に不均一に機能することを示した。
論文 参考訳(メタデータ) (2023-10-20T01:44:49Z) - Traditional methods in Edge, Corner and Boundary detection [0.0]
エッジ、コーナー、境界検出の多くの実世界の応用がある。
自動運転車のような現代のイノベーションでは、エッジ検出とセグメンテーションが最も重要になっている。
実世界の画像は検出器の性能と限界を検証するために使用される。
論文 参考訳(メタデータ) (2022-08-12T22:26:05Z) - Cross-Camera Trajectories Help Person Retrieval in a Camera Network [124.65912458467643]
既存の手法では、純粋な視覚的マッチングや時間的制約を考慮することが多いが、カメラネットワークの空間情報は無視する。
本稿では,時間的情報と空間的情報を統合したクロスカメラ生成に基づく歩行者検索フレームワークを提案する。
本手法の有効性を検証するため,最初のカメラ横断歩行者軌跡データセットを構築した。
論文 参考訳(メタデータ) (2022-04-27T13:10:48Z) - End-to-End Instance Edge Detection [29.650295133113183]
エッジ検出は長い間、コンピュータビジョンの分野で重要な問題であった。
従来の研究は、カテゴリ非依存またはカテゴリ対応エッジ検出を探索してきた。
本稿では,オブジェクトインスタンスのコンテキストにおけるエッジ検出について検討する。
論文 参考訳(メタデータ) (2022-04-06T15:32:21Z) - ARPD: Anchor-free Rotation-aware People Detection using Topview Fisheye
Camera [3.0868856870169625]
本研究では,魚眼画像中の任意回転者を検知する単一段アンカーフリー完全畳み込みネットワークARPDを提案する。
提案手法は最先端のアルゴリズムと非常に高速に動作しながら競合する。
論文 参考訳(メタデータ) (2022-01-25T05:49:50Z) - Pedestrian Detection: Domain Generalization, CNNs, Transformers and
Beyond [82.37430109152383]
その結果、現在の歩行者検知器は、クロスデータセット評価において、たとえ小さな領域シフトであっても処理が不十分であることがわかった。
限定的な一般化は、その方法と現在のデータ源の2つの主要な要因に帰着する。
本稿では、一般化を改善する進歩的な微調整戦略を提案する。
論文 参考訳(メタデータ) (2022-01-10T06:00:26Z) - Cross-Camera Feature Prediction for Intra-Camera Supervised Person
Re-identification across Distant Scenes [70.30052164401178]
人物再識別(Re-ID)は、重複しないカメラビュー間で人物画像をマッチングすることを目的としている。
ICS-DS Re-IDは、カメラ内IDラベル付きクロスカメラアンペアデータを使用してトレーニングを行う。
カメラ横断型自己監視情報マイニングのためのクロスカメラ特徴予測法
グローバルレベルの特徴とローカルレベルの特徴の合同学習は、グローバルなローカルなクロスカメラ特徴予測スキームを形成する。
論文 参考訳(メタデータ) (2021-07-29T11:27:50Z) - SADet: Learning An Efficient and Accurate Pedestrian Detector [68.66857832440897]
本稿では,一段検出器の検出パイプラインに対する一連の最適化手法を提案する。
効率的な歩行者検出のための単発アンカーベース検出器(SADet)を形成する。
構造的には単純だが、VGA解像度の画像に対して最先端の結果と20ドルFPSのリアルタイム速度を示す。
論文 参考訳(メタデータ) (2020-07-26T12:32:38Z) - Deep Soft Procrustes for Markerless Volumetric Sensor Alignment [81.13055566952221]
本研究では、より堅牢なマルチセンサ空間アライメントを実現するために、マーカーレスデータ駆動対応推定を改善する。
我々は、幾何学的制約を終末的に典型的なセグメンテーションベースモデルに組み込み、対象のポーズ推定タスクと中間密な分類タスクをブリッジする。
実験により,マーカーベースの手法で同様の結果が得られ,マーカーレス手法よりも優れ,またキャリブレーション構造のポーズ変動にも頑健であることがわかった。
論文 参考訳(メタデータ) (2020-03-23T10:51:32Z) - Detecting Lane and Road Markings at A Distance with Perspective
Transformer Layers [5.033948921121557]
既存の手法では、検出精度は距離の増大とともに劣化することが多い。
これは、遠車線や道路標識が画像中の少数のピクセルを占有しているためである。
逆のパースペクティブマッピングは、パースペクティブの歪みを取り除くために使用できるが、本質的にはアーティファクトに繋がる可能性がある。
論文 参考訳(メタデータ) (2020-03-19T03:22:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。