論文の概要: A Benchmark for Cycling Close Pass Near Miss Event Detection from Video
Streams
- arxiv url: http://arxiv.org/abs/2304.11868v1
- Date: Mon, 24 Apr 2023 07:30:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-25 15:48:40.035408
- Title: A Benchmark for Cycling Close Pass Near Miss Event Detection from Video
Streams
- Title(参考訳): ビデオストリームからのミスイベント検出近傍のクローズパスのベンチマーク
- Authors: Mingjie Li, Tharindu Rathnayake, Ben Beck, Lingheng Meng, Zijue Chen,
Akansel Cosgun, Xiaojun Chang, Dana Kuli\'c
- Abstract要約: 我々はCyc-CPと呼ばれる新しいベンチマークを導入し、ビデオストリームからのミスイベント検出に近づいた近距離通過をサイクリングする。
これら2つの問題に対するディープラーニング技術に基づくベンチマークモデルを提案する。
我々のモデルは実世界のデータセットで88.13%と84.60%の精度を達成できる。
- 参考スコア(独自算出の注目度): 35.17510169229505
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Cycling is a healthy and sustainable mode of transport. However, interactions
with motor vehicles remain a key barrier to increased cycling participation.
The ability to detect potentially dangerous interactions from on-bike sensing
could provide important information to riders and policy makers. Thus,
automated detection of conflict between cyclists and drivers has attracted
researchers from both computer vision and road safety communities. In this
paper, we introduce a novel benchmark, called Cyc-CP, towards cycling close
pass near miss event detection from video streams. We first divide this task
into scene-level and instance-level problems. Scene-level detection asks an
algorithm to predict whether there is a close pass near miss event in the input
video clip. Instance-level detection aims to detect which vehicle in the scene
gives rise to a close pass near miss. We propose two benchmark models based on
deep learning techniques for these two problems. For training and testing those
models, we construct a synthetic dataset and also collect a real-world dataset.
Our models can achieve 88.13% and 84.60% accuracy on the real-world dataset,
respectively. We envision this benchmark as a test-bed to accelerate cycling
close pass near miss detection and facilitate interaction between the fields of
road safety, intelligent transportation systems and artificial intelligence.
Both the benchmark datasets and detection models will be available at
https://github.com/SustainableMobility/cyc-cp to facilitate experimental
reproducibility and encourage more in-depth research in the field.
- Abstract(参考訳): サイクリングは健全で持続可能な交通手段である。
しかし、自動車との相互作用はサイクリング参加の増加にとって重要な障壁である。
on-bike sensingから潜在的に危険なインタラクションを検出する能力は、ライダーや政策立案者に重要な情報を提供する。
このように、サイクリストとドライバーの衝突の自動検出は、コンピュータビジョンと道路安全コミュニティの両方の研究者を惹きつけている。
本稿では,ビデオストリームからのミスイベント検出近傍のクローズパスをサイクリングするための新しいベンチマークcyc-cpを提案する。
まず、このタスクをシーンレベルとインスタンスレベルに分割します。
シーンレベルの検出は、入力されたビデオクリップにミスイベントの近くに近接パスがあるかどうかをアルゴリズムに予測する。
インスタンスレベルの検出は、シーン内のどの車両がミスに近い近接パスを発生させるかを検出することを目的としている。
これら2つの問題に対するディープラーニング技術に基づくベンチマークモデルを提案する。
これらのモデルをトレーニングし、テストするために、合成データセットを構築し、実世界のデータセットを収集します。
我々のモデルは実世界のデータセットでそれぞれ88.13%と84.60%の精度を達成できる。
我々は,このベンチマークを,道路安全,インテリジェント交通システム,人工知能の分野間の相互作用を促進するためのテストベッドとして想定している。
ベンチマークデータセットと検出モデルの両方がhttps://github.com/SustainableMobility/cyc-cpで利用可能になる。
関連論文リスト
- G-MEMP: Gaze-Enhanced Multimodal Ego-Motion Prediction in Driving [71.9040410238973]
我々は、視線データを用いて、運転者の車両のエゴ軌道を推定することに集中する。
次に、GPSとビデオ入力と視線データを組み合わせた新しいマルチモーダルエゴ軌道予測ネットワークであるG-MEMPを開発する。
その結果,G-MEMPは両ベンチマークにおいて最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-12-13T23:06:30Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Monocular Cyclist Detection with Convolutional Neural Networks [0.0]
本研究は,盲点に対する運転者の注意不足に起因する車両と自転車の衝突回数を減らすことを目的としている。
我々は、物体検出畳み込みニューラルネットワークを用いてサイクリストを検出できる最先端のリアルタイム単眼サイクリスト検出を設計した。
このサイクリスト検出装置は、サイクリストを正確にかつ迅速に検出し、サイクリストの安全性を大幅に向上させる可能性があると結論付けている。
論文 参考訳(メタデータ) (2023-01-16T13:54:13Z) - Unsupervised Driving Event Discovery Based on Vehicle CAN-data [62.997667081978825]
本研究は,車両CANデータのクラスタリングとセグメンテーションを同時に行うことで,一般的な運転イベントを教師なしで識別する手法である。
我々は、実際のTesla Model 3車載CANデータと、異なる運転イベントをアノテートした2時間の運転セッションのデータセットを用いて、アプローチを評価した。
論文 参考訳(メタデータ) (2023-01-12T13:10:47Z) - Real-Time Accident Detection in Traffic Surveillance Using Deep Learning [0.8808993671472349]
本稿では,交通監視用交差点における事故検出のための新しい効率的な枠組みを提案する。
提案手法は,最先端のYOLOv4法に基づく効率的かつ高精度な物体検出を含む,3つの階層的なステップから構成される。
提案フレームワークのロバスト性は,様々な照明条件でYouTubeから収集した映像シーケンスを用いて評価する。
論文 参考訳(メタデータ) (2022-08-12T19:07:20Z) - Cross-Camera Trajectories Help Person Retrieval in a Camera Network [124.65912458467643]
既存の手法では、純粋な視覚的マッチングや時間的制約を考慮することが多いが、カメラネットワークの空間情報は無視する。
本稿では,時間的情報と空間的情報を統合したクロスカメラ生成に基づく歩行者検索フレームワークを提案する。
本手法の有効性を検証するため,最初のカメラ横断歩行者軌跡データセットを構築した。
論文 参考訳(メタデータ) (2022-04-27T13:10:48Z) - Euro-PVI: Pedestrian Vehicle Interactions in Dense Urban Centers [126.81938540470847]
歩行者と自転車の軌跡のデータセットであるEuro-PVIを提案する。
本研究では,都市環境におけるエージェント間のマルチモーダル共有潜在空間を表現的に学習する共同推論モデルを開発する。
我々は,エゴ車と歩行者(自転車)の相互作用を正確に予測するために捉えることの重要性を示すnuScenesとEuro-PVIデータセット上での成果を達成した。
論文 参考訳(メタデータ) (2021-06-22T15:40:21Z) - Interaction Detection Between Vehicles and Vulnerable Road Users: A Deep
Generative Approach with Attention [9.442285577226606]
交差点における相互作用検出のための条件生成モデルを提案する。
道路利用者の行動の連続性に関する膨大な映像データを自動解析することを目的としています。
モデルの有効性は実世界のデータセットでテストすることによって検証された。
論文 参考訳(メタデータ) (2021-05-09T10:03:55Z) - CyclingNet: Detecting cycling near misses from video streams in complex
urban scenes with deep learning [1.462434043267217]
CyclingNetは、自己注意型双方向長短メモリ(LSTM)ブロックに埋め込まれた畳み込み構造に基づく深層コンピュータビジョンモデルである。
1つのGPUで42時間トレーニングした後、モデルはトレーニング、テスト、バリデーションセットに対して高い精度を示す。
このモデルは、都市のサイクリング行動に関する重要な結論を導く情報を生成するために使用されることを意図している。
論文 参考訳(メタデータ) (2021-01-31T23:59:28Z) - Edge Computing for Real-Time Near-Crash Detection for Smart
Transportation Applications [29.550609157368466]
交通事故に近いイベントは、さまざまなスマートトランスポートアプリケーションにとって重要なデータソースとなる。
本稿では,既存のダッシュカムの映像ストリームをリアルタイムに処理することで,エッジコンピューティングのパワーを活用してこれらの課題に対処する。
エッジコンピューティングをリアルタイムトラフィックビデオ分析に適用する最初の取り組みのひとつであり、スマートトランスポート研究やアプリケーションにおいて、複数のサブフィールドに恩恵をもたらすことが期待されている。
論文 参考訳(メタデータ) (2020-08-02T19:39:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。