論文の概要: NU-AIR -- A Neuromorphic Urban Aerial Dataset for Detection and
Localization of Pedestrians and Vehicles
- arxiv url: http://arxiv.org/abs/2302.09429v1
- Date: Sat, 18 Feb 2023 21:48:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 18:36:36.410047
- Title: NU-AIR -- A Neuromorphic Urban Aerial Dataset for Detection and
Localization of Pedestrians and Vehicles
- Title(参考訳): NU-AIR -- 歩行者と車両の検出と位置決定のためのニューロモルフィックな都市空域データセット
- Authors: Craig Iaboni, Thomas Kelly, Pramod Abichandani
- Abstract要約: 本稿では,都市環境における歩行者や車両の移動を捉えた,初のオープンソースの空中ニューロモルフィックデータセットを提案する。
歩行者の群衆、さまざまな種類の車両、繁華街の交差点のストリートシーンは、異なる標高と照明条件で撮影されている。
データセットの忠実度は、3つのスパイキングニューラルネットワーク(SNN)と10のディープニューラルネットワーク(DNN)をトレーニングすることで評価される
- 参考スコア(独自算出の注目度): 0.7742297876120561
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Annotated imagery capturing pedestrians and vehicles in an urban environment
can be used to train Neural Networks (NNs) for machine vision tasks. This paper
presents the first open-source aerial neuromorphic dataset that captures
pedestrians and vehicles moving in an urban environment. The dataset, titled
NU-AIR, features 70.75 minutes of event footage acquired with a 640 x 480
resolution neuromorphic sensor mounted on a quadrotor operating in an urban
environment. Crowds of pedestrians, different types of vehicles, and street
scenes at a busy urban intersection are captured at different elevations and
illumination conditions. Manual bounding box annotations of vehicles and
pedestrians contained in the recordings are provided at a frequency of 30 Hz,
yielding 93,204 labels in total. Evaluation of the dataset's fidelity is
performed by training three Spiking Neural Networks (SNNs) and ten Deep Neural
Networks (DNNs). The mean average precision (mAP) accuracy results achieved for
the testing set evaluations are on-par with results reported for similar SNNs
and DNNs on established neuromorphic benchmark datasets. All data and Python
code to voxelize the data and subsequently train SNNs/DNNs has been
open-sourced.
- Abstract(参考訳): 都市環境で歩行者や車両を撮影する注釈付き画像は、ニューラルネットワーク(NN)のトレーニングに使用することができる。
本稿では,都市環境における歩行者や車両の移動を捉えた,初のオープンソースの空中ニューロモルフィックデータセットを提案する。
NU-AIRと題されたこのデータセットは、70.75分間のイベント映像を640 x 480の分解能ニューロモルフィックセンサーで取得し、都市環境で動作している四極子に装着する。
忙しい都市交差点の歩行者、さまざまな種類の車両、ストリートシーンの群衆は、異なる標高と照明条件で撮影されます。
記録に含まれる車両及び歩行者の手動バウンディングボックスアノテーションを30hzの周波数で提供し、合計93,204のラベルを付与する。
データセットの忠実度の評価は、3つのスパイキングニューラルネットワーク(SNN)と10のディープニューラルネットワーク(DNN)をトレーニングすることで行われる。
テストセット評価で得られた平均平均精度(mAP)は、確立されたニューロモルフィックベンチマークデータセット上でSNNやDNNと同様の結果と同等である。
データをVoxelizeし、SNN/DNNをトレーニングするすべてのデータとPythonコードがオープンソース化された。
関連論文リスト
- AutoSynth: Learning to Generate 3D Training Data for Object Point Cloud
Registration [69.21282992341007]
Auto Synthは、ポイントクラウド登録のための3Dトレーニングデータを自動的に生成する。
私たちはポイントクラウド登録ネットワークをもっと小さなサロゲートネットワークに置き換え、4056.43$のスピードアップを実現しました。
TUD-L,LINEMOD,Occluded-LINEMODに関する我々の研究結果は,検索データセットでトレーニングされたニューラルネットワークが,広く使用されているModelNet40データセットでトレーニングされたニューラルネットワークよりも一貫してパフォーマンスが向上していることを示す。
論文 参考訳(メタデータ) (2023-09-20T09:29:44Z) - The IMPTC Dataset: An Infrastructural Multi-Person Trajectory and
Context Dataset [4.413278371057897]
市内の交差点は、怪我や致命的な事故で最も重要な交通エリアである。
われわれは、ドイツのインテリジェントな公共都市交差点と視覚センサー技術を使用している。
得られたデータセットは8時間の計測データから構成される。
論文 参考訳(メタデータ) (2023-07-12T13:46:20Z) - Collaborative Learning with a Drone Orchestrator [79.75113006257872]
インテリジェントな無線デバイス群は、ドローンの助けを借りて共有ニューラルネットワークモデルを訓練する。
提案したフレームワークは,トレーニングの大幅な高速化を実現し,ドローンホバリング時間の平均24%と87%の削減を実現している。
論文 参考訳(メタデータ) (2023-03-03T23:46:25Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - Ithaca365: Dataset and Driving Perception under Repeated and Challenging
Weather Conditions [0.0]
我々は、新しいデータ収集プロセスを通じて、堅牢な自律運転を可能にする新しいデータセットを提案する。
データセットには、高精度GPS/INSとともに、カメラとLiDARセンサーからの画像と点雲が含まれている。
道路・オブジェクトのアモーダルセグメンテーションにおけるベースラインの性能を解析することにより,このデータセットの特異性を実証する。
論文 参考訳(メタデータ) (2022-08-01T22:55:32Z) - Federated Deep Learning Meets Autonomous Vehicle Perception: Design and
Verification [168.67190934250868]
フェデレーテッド・ラーニング・パワード・コネクテッド・オートモービル(FLCAV)が提案されている。
FLCAVは通信とアノテーションのコストを削減しながらプライバシを保存する。
マルチステージトレーニングのためのネットワークリソースと道路センサのポーズを決定することは困難である。
論文 参考訳(メタデータ) (2022-06-03T23:55:45Z) - The NEOLIX Open Dataset for Autonomous Driving [1.4091801425319965]
自律走行領域におけるNEOLIXデータセットとその応用について述べる。
私たちのデータセットには、ポイントクラウドラベル付き約30,000フレームと、アノテーション付き600k以上の3Dバウンディングボックスが含まれています。
論文 参考訳(メタデータ) (2020-11-27T02:27:39Z) - Speak2Label: Using Domain Knowledge for Creating a Large Scale Driver
Gaze Zone Estimation Dataset [55.391532084304494]
ワイルド・データセットのドライバ・ゲイズには、夕方を含む1日の異なる時間に撮影された586の録音が含まれている。
ワイルド・データセットのドライバ・ゲイズには338人の被験者がおり、年齢は18-63歳である。
論文 参考訳(メタデータ) (2020-04-13T14:47:34Z) - NWPU-Crowd: A Large-Scale Benchmark for Crowd Counting and Localization [101.13851473792334]
我々は,5,109枚の画像からなる大規模集束群集NWPU-Crowdを構築し,合計2,133,375個の点と箱を付加したアノテートヘッドを構築した。
他の実世界のデータセットと比較すると、様々な照明シーンを含み、最大密度範囲 (020,033) を持つ。
本稿では,データ特性について述べるとともに,主要なSOTA(State-of-the-art)手法の性能を評価し,新たなデータに生じる問題を分析する。
論文 参考訳(メタデータ) (2020-01-10T09:26:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。