論文の概要: Non-anchor-based vehicle detection for traffic surveillance using
bounding ellipses
- arxiv url: http://arxiv.org/abs/2010.02059v2
- Date: Fri, 5 Mar 2021 04:05:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 21:59:01.369949
- Title: Non-anchor-based vehicle detection for traffic surveillance using
bounding ellipses
- Title(参考訳): 境界楕円を用いた交通監視のための非アンカー型車両検出
- Authors: Byeonghyeop Yu, Johyun Shin, Gyeongjun Kim, Seungbin Roh, Keemin Sohn
- Abstract要約: 本研究では,非アンカーベース単発検出モデル(CenterNet)に境界楕円を適用した。
境界楕円を持つ CenterNet の最良の mAP スコアは 0.9 を超えている。
- 参考スコア(独自算出の注目度): 2.519906683279153
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cameras for traffic surveillance are usually pole-mounted and produce images
that reflect a birds-eye view. Vehicles in such images, in general, assume an
ellipse form. A bounding box for the vehicles usually includes a large empty
space when the vehicle orientation is not parallel to the edges of the box. To
circumvent this problem, the present study applied bounding ellipses to a
non-anchor-based, single-shot detection model (CenterNet). Since this model
does not depend on anchor boxes, non-max suppression (NMS) that requires
computing the intersection over union (IOU) between predicted bounding boxes is
unnecessary for inference. The SpotNet that extends the CenterNet model by
adding a segmentation head was also tested with bounding ellipses. Two other
anchor-based, single-shot detection models (YOLO4 and SSD) were chosen as
references for comparison. The model performance was compared based on a local
dataset that was doubly annotated with bounding boxes and ellipses. As a
result, the performance of the two models with bounding ellipses exceeded that
of the reference models with bounding boxes. When the backbone of the ellipse
models was pretrained on an open dataset (UA-DETRAC), the performance was
further enhanced. The data augmentation schemes developed for YOLO4 also
improved the performance of the proposed models. As a result, the best mAP
score of a CenterNet with bounding ellipses exceeds 0.9.
- Abstract(参考訳): 交通監視用のカメラは通常ポールマウントされ、鳥の視線を反映する画像を生成する。
このような画像の車両は一般に楕円形を仮定する。
車両のバウンディングボックスは通常、車両の向きがボックスの端と平行でない場合に大きな空スペースを含む。
そこで本研究では,非アンカー型単一ショット検出モデル(centernet)にバウンディング楕円を適用した。
このモデルはアンカーボックスに依存しないので、予測される有界ボックス間の結合(IOU)の計算を必要とする非最大抑圧(NMS)は推論には不要である。
セグメンテーションヘッドを追加することでCenterNetモデルを拡張するSpotNetも、境界楕円でテストされた。
他の2つのアンカーベース単発検出モデル(YOLO4とSSD)が比較基準として選択された。
モデルのパフォーマンスは、バウンディングボックスと楕円で2倍のアノテートされたローカルデータセットに基づいて比較された。
その結果、バウンディング楕円を持つ2つのモデルの性能は、バウンディングボックスを持つ参照モデルの性能を上回った。
楕円モデルのバックボーンがオープンデータセット(UA-DETRAC)上で事前トレーニングされると、さらに性能が向上した。
YOLO4向けに開発されたデータ拡張方式により,提案モデルの性能も向上した。
その結果、境界楕円を持つCenterNetの最良のmAPスコアは0.9を超えている。
関連論文リスト
- OCDet: Object Center Detection via Bounding Box-Aware Heatmap Prediction on Edge Devices with NPUs [7.969347737723115]
OCDetは、NPUを使ったエッジデバイス向けに最適化された軽量なObject Center Detectionフレームワークである。
OCDetは、オブジェクト中心の確率を表すヒートマップを予測し、ピーク識別を通じて中心点を抽出する。
NPUフレンドリーなセマンティックFPNとMobileNetV4のバックボーンで構築されたOCDetモデルは、当社のBa balanced Continuous Focal Loss (BCFL)によってトレーニングされています。
論文 参考訳(メタデータ) (2024-11-23T21:17:35Z) - PointOBB: Learning Oriented Object Detection via Single Point
Supervision [55.88982271340328]
本稿では,オブジェクト指向物体検出のための最初の単一点ベース OBB 生成法である PointOBB を提案する。
PointOBBは、オリジナルビュー、リサイズビュー、ローテーション/フリップ(rot/flp)ビューの3つのユニークなビューの協調利用を通じて動作する。
DIOR-RとDOTA-v1.0データセットの実験結果は、PointOBBが有望な性能を達成することを示す。
論文 参考訳(メタデータ) (2023-11-23T15:51:50Z) - Complementary consistency semi-supervised learning for 3D left atrial
image segmentation [9.836802392009618]
CC-Netは半教師付き左房画像セグメンテーションのためのネットワークである。
補完情報の観点から、ラベルのないデータを効率的に活用する。
CC-Netは2つのパブリックデータセットで検証されている。
論文 参考訳(メタデータ) (2022-10-04T07:50:28Z) - Semi-supervised 3D Object Detection with Proficient Teachers [114.54835359657707]
自律運転のシナリオにおけるクラウドベースの3Dオブジェクト検出器の優位性は、大量の正確なラベル付きサンプルに大きく依存している。
Pseudo-Labeling法はSSLフレームワークで一般的に使用されているが、教師モデルの低品質な予測は、その性能を著しく制限している。
そこで本研究では,教師モデルをさらに高度化することで,半教師付き3次元物体検出のためのPseudo-Labelingフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-26T04:54:03Z) - Hybrid Tracker with Pixel and Instance for Video Panoptic Segmentation [50.62685357414904]
ビデオパノプティカル係数(VPS)は、コヒーレントなパノプティカルセグメンテーションを生成し、ビデオフレーム全体の全ピクセルのアイデンティティを追跡することを目的としている。
単一トラッカーの限界を取り除くために,軽量かつ共同的な追跡モデルであるHybridTrackerを提案する。
総合的な実験により、HybridTrackerはCityscapes-VPSとVIPERデータセットの最先端メソッドよりも優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-03-02T16:21:55Z) - DAFNe: A One-Stage Anchor-Free Deep Model for Oriented Object Detection [16.21161769128316]
DAFNe: オブジェクト指向物体検出のためのワンステージアンカーフリーディープネットワークを提案する。
アンカーフリーモデルとして、DAFNeはバウンディングボックスアンカーの使用を控えることで予測複雑性を低減する。
低品質な予測に対する任意指向の有界箱に対する中心性関数の指向性を考慮した一般化を提案する。
論文 参考訳(メタデータ) (2021-09-13T17:37:20Z) - Self-Calibrating Neural Radiance Fields [68.64327335620708]
キャリブレーション対象のないシーンの幾何学と正確なカメラパラメータを共同で学習する。
我々のカメラモデルは、ピンホールモデル、第4次ラジアル歪み、および任意の非線形カメラ歪みを学習可能な汎用ノイズモデルで構成されている。
論文 参考訳(メタデータ) (2021-08-31T13:34:28Z) - Deep Occlusion-Aware Instance Segmentation with Overlapping BiLayers [72.38919601150175]
高オーバーラップオブジェクトをセグメント化するBilayer Convolutional Network (BCNet)を提案する。
BCNetはオクルージョンオブジェクト(Occluder)を検出し、ボトムGCN層は部分的にOccludedインスタンス(Occludee)を推論する
論文 参考訳(メタデータ) (2021-03-23T06:25:42Z) - End-to-end Deep Object Tracking with Circular Loss Function for Rotated
Bounding Box [68.8204255655161]
Transformer Multi-Head Attentionアーキテクチャに基づく新しいエンドツーエンドのディープラーニング手法を紹介します。
また,境界ボックスの重なりと向きを考慮に入れた新しいタイプの損失関数を提案する。
論文 参考訳(メタデータ) (2020-12-17T17:29:29Z) - Ellipse R-CNN: Learning to Infer Elliptical Object from Clustering and
Occlusion [31.237782332036552]
楕円形物体を楕円形に表現し,推定するために,最初のCNNベースの楕円形検出器であるEllipse R-CNNを導入する。
まず、楕円形物体検出のためのMask R-CNNアーキテクチャに基づく、頑健でコンパクトな楕円回帰法を提案する。
論文 参考訳(メタデータ) (2020-01-30T22:04:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。