論文の概要: Constellation Dataset: Benchmarking High-Altitude Object Detection for an Urban Intersection
- arxiv url: http://arxiv.org/abs/2404.16944v1
- Date: Thu, 25 Apr 2024 18:00:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-29 14:43:43.724118
- Title: Constellation Dataset: Benchmarking High-Altitude Object Detection for an Urban Intersection
- Title(参考訳): コンステレーションデータセット:都市間における高高度物体検出のベンチマーク
- Authors: Mehmet Kerem Turkcan, Sanjeev Narasimhan, Chengbo Zang, Gyung Hyun Je, Bo Yu, Mahshid Ghasemi, Javad Ghaderi, Gil Zussman, Zoran Kostic,
- Abstract要約: 本研究では,高標高カメラで観測された都市景観の物体検出研究に適した13K画像のデータセットであるConstellationを紹介する。
このデータセットは、歩行者の限られたピクセルフットプリントによって実証された小さな物体検出の問題を探索するキュレートされたデータの必要性に対処する。
提案手法は, 車両と比較して小型歩行者の検出性能が低いことを観察し, データセット上での同時検出アーキテクチャの評価を行った。
- 参考スコア(独自算出の注目度): 7.419274609612015
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce Constellation, a dataset of 13K images suitable for research on detection of objects in dense urban streetscapes observed from high-elevation cameras, collected for a variety of temporal conditions. The dataset addresses the need for curated data to explore problems in small object detection exemplified by the limited pixel footprint of pedestrians observed tens of meters from above. It enables the testing of object detection models for variations in lighting, building shadows, weather, and scene dynamics. We evaluate contemporary object detection architectures on the dataset, observing that state-of-the-art methods have lower performance in detecting small pedestrians compared to vehicles, corresponding to a 10% difference in average precision (AP). Using structurally similar datasets for pretraining the models results in an increase of 1.8% mean AP (mAP). We further find that incorporating domain-specific data augmentations helps improve model performance. Using pseudo-labeled data, obtained from inference outcomes of the best-performing models, improves the performance of the models. Finally, comparing the models trained using the data collected in two different time intervals, we find a performance drift in models due to the changes in intersection conditions over time. The best-performing model achieves a pedestrian AP of 92.0% with 11.5 ms inference time on NVIDIA A100 GPUs, and an mAP of 95.4%.
- Abstract(参考訳): コンステレーション(Constellation)は,高標高カメラで観測された高密度都市景観の物体検出研究に適した13K画像のデータセットであり,様々な時間的条件で収集される。
このデータセットは、数メートル離れた地点で観察された歩行者の限られたピクセルフットプリントによって実証された小さな物体検出の問題を探索するキュレートされたデータの必要性に対処する。
これにより、照明、ビルディングシャドー、天気、シーンダイナミクスのバリエーションに対するオブジェクト検出モデルのテストが可能になる。
提案手法は, 車両に比べて小型歩行者の検出性能が低く, 平均精度(AP)の10%の差が認められた。
モデルを事前トレーニングするために構造的に類似したデータセットを使用すると、平均AP(mAP)が1.8%増加する。
さらに、ドメイン固有のデータ拡張を取り入れることで、モデルの性能が向上する。
最高の性能モデルの推測結果から得られた擬似ラベル付きデータを用いることで、モデルの性能が向上する。
最後に、2つの異なる時間間隔で収集したデータを用いてトレーニングしたモデルを比較し、時間とともに交叉条件が変化するため、モデルの性能が低下することを示した。
最高のパフォーマンスモデルは、NVIDIA A100 GPU上での11.5msの推論時間で92.0%の歩行者AP、95.4%のmAPを達成する。
関連論文リスト
- Boundless: Generating Photorealistic Synthetic Data for Object Detection in Urban Streetscapes [7.948212109423146]
本研究では,高密度都市景観におけるオブジェクト検出のための写真リアルな合成データ生成システムであるBoundlessを紹介する。
Boundlessは、大規模な実世界のデータ収集と手動のグラウンドトルースオブジェクトアノテーション(ラベル付け)を置き換えることができる
本研究では、Boundlessが生成したデータセットに基づいて学習したオブジェクト検出モデルの性能を評価する。
論文 参考訳(メタデータ) (2024-09-04T18:28:10Z) - A Recurrent YOLOv8-based framework for Event-Based Object Detection [4.866548300593921]
本研究では、時間的モデリング機能を備えたフレームベース検出システムを強化する高度なオブジェクト検出フレームワークであるReYOLOv8を紹介する。
イベントデータを符号化する低レイテンシでメモリ効率の手法を実装し,システムの性能を向上する。
また、イベントデータのユニークな属性を利用するように調整された新しいデータ拡張手法を開発し、検出精度を向上した。
論文 参考訳(メタデータ) (2024-08-09T20:00:16Z) - Simple In-place Data Augmentation for Surveillance Object Detection [2.3841361713768077]
本稿では,オブジェクト検出データセットに適した簡単な拡張手法を提案する。
提案手法では,オブジェクトをオリジナルと同じ位置に配置することで,その有効性を保証する。
論文 参考訳(メタデータ) (2024-04-17T10:20:16Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - Exploring the Effectiveness of Dataset Synthesis: An application of
Apple Detection in Orchards [68.95806641664713]
本研究では,リンゴ樹の合成データセットを生成するための安定拡散2.1-baseの有用性について検討する。
我々は、現実世界のリンゴ検出データセットでリンゴを予測するために、YOLOv5mオブジェクト検出モデルを訓練する。
その結果、実世界の画像でトレーニングされたベースラインモデルと比較して、生成データでトレーニングされたモデルはわずかに性能が劣っていることがわかった。
論文 参考訳(メタデータ) (2023-06-20T09:46:01Z) - A Billion-scale Foundation Model for Remote Sensing Images [5.065947993017157]
基礎モデルの事前学習における3つの重要な要因は、事前学習方法、事前学習データセットのサイズ、モデルパラメータの数である。
本稿では,下流タスクにおける基礎モデルの性能に及ぼすモデルパラメータ数の増加の影響について検討する。
我々の知る限りでは、これはリモートセンシング分野における最初の10億ドル規模の基礎モデルである。
論文 参考訳(メタデータ) (2023-04-11T13:33:45Z) - Pattern-Aware Data Augmentation for LiDAR 3D Object Detection [7.394029879643516]
本稿では,LiDARの特性に基づいてオブジェクトの点群をダウンサンプリングするデータ拡張手法である,パターン認識基底真理サンプリングを提案する。
自動車クラスにおけるPV-RCNNの性能は,25m以上の距離で分割したKITTI検証で0.7%以上向上した。
論文 参考訳(メタデータ) (2021-11-30T19:14:47Z) - SODA10M: Towards Large-Scale Object Detection Benchmark for Autonomous
Driving [94.11868795445798]
我々は,SODA10Mという名の自律走行用大規模物体検出ベンチマークをリリースし,1000万枚の未ラベル画像と6つの代表対象カテゴリをラベル付けした20K画像を含む。
多様性を向上させるために、画像は32の異なる都市で、1フレームあたり10秒毎に異なる気象条件、期間、場所のシーンで収集される。
我々は、既存の教師付き最先端検出モデル、一般的な自己監督型および半教師付きアプローチ、および将来のモデルの開発方法に関するいくつかの知見について、広範な実験と詳細な分析を行った。
論文 参考訳(メタデータ) (2021-06-21T13:55:57Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - Contemplating real-world object classification [53.10151901863263]
Barbuらが最近提案したObjectNetデータセットを再分析した。
日常の状況に物を含むこと。
分離されたオブジェクトにディープモデルを適用すると、元の論文のようにシーン全体ではなく、約20~30%の性能改善が得られます。
論文 参考訳(メタデータ) (2021-03-08T23:29:59Z) - DecAug: Augmenting HOI Detection via Decomposition [54.65572599920679]
現在のアルゴリズムでは、データセット内のトレーニングサンプルやカテゴリの不均衡が不足している。
本稿では,HOI検出のためのDECAugと呼ばれる効率的かつ効率的なデータ拡張手法を提案する。
実験の結果,V-COCOおよびHICODETデータセットの3.3mAPと1.6mAPの改善が得られた。
論文 参考訳(メタデータ) (2020-10-02T13:59:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。