論文の概要: A Benchmark for Cycling Close Pass Detection from Video Streams
- arxiv url: http://arxiv.org/abs/2304.11868v2
- Date: Tue, 25 Mar 2025 06:39:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-26 16:49:51.922554
- Title: A Benchmark for Cycling Close Pass Detection from Video Streams
- Title(参考訳): ビデオストリームからのクローズパス検出のためのベンチマーク
- Authors: Mingjie Li, Ben Beck, Tharindu Rathnayake, Lingheng Meng, Zijue Chen, Akansel Cosgun, Xiaojun Chang, Dana Kulić,
- Abstract要約: 我々はCyc-CPと呼ばれる新しいベンチマークを導入し、ビデオストリームからCP(Cyc-CP)イベントを検出する。
シーンレベルの検出は、提供されたビデオクリップ内にCPイベントが存在することを確認する。
インスタンスレベルの検出は、CPイベントを発生させるシーン内の特定の車両を特定する。
- 参考スコア(独自算出の注目度): 31.962089421160055
- License:
- Abstract: Cycling is a healthy and sustainable mode of transport. However, interactions with motor vehicles remain a key barrier to increased cycling participation. The ability to detect potentially dangerous interactions from on-bike sensing could provide important information to riders and policymakers. A key influence on rider comfort and safety is close passes, i.e., when a vehicle narrowly passes a cyclist. In this paper, we introduce a novel benchmark, called Cyc-CP, towards close pass (CP) event detection from video streams. The task is formulated into two problem categories: scene-level and instance-level. Scene-level detection ascertains the presence of a CP event within the provided video clip. Instance-level detection identifies the specific vehicle within the scene that precipitates a CP event. To address these challenges, we introduce four benchmark models, each underpinned by advanced deep-learning methodologies. For training and evaluating those models, we have developed a synthetic dataset alongside the acquisition of a real-world dataset. The benchmark evaluations reveal that the models achieve an accuracy of 88.13\% for scene-level detection and 84.60\% for instance-level detection on the real-world dataset. We envision this benchmark as a test-bed to accelerate CP detection and facilitate interaction between the fields of road safety, intelligent transportation systems and artificial intelligence. Both the benchmark datasets and detection models will be available at https://github.com/SustainableMobility/cyc-cp to facilitate experimental reproducibility and encourage more in-depth research in the field.
- Abstract(参考訳): 循環は健康で持続可能な輸送手段である。
しかし、自動車との相互作用は、サイクリングへの参加を増やすための重要な障壁である。
自転車のセンサーから潜在的に危険なインタラクションを検出する能力は、乗客や政策立案者に重要な情報を提供する可能性がある。
ライダーの快適さと安全に重要な影響はクローズパス、すなわち、車両が狭くサイクリストを追い越すときである。
本稿では,Cyc-CP(Cyc-CP)と呼ばれる新しいベンチマークを導入し,ビデオストリームからCP(Cyc-CP)イベントを検出する。
このタスクは、シーンレベルとインスタンスレベルという2つの問題カテゴリに分類される。
シーンレベルの検出は、提供されたビデオクリップ内にCPイベントが存在することを確認する。
インスタンスレベルの検出は、CPイベントを発生させるシーン内の特定の車両を特定する。
これらの課題に対処するために,先進的なディープラーニング手法を基盤とした4つのベンチマークモデルを導入する。
これらのモデルをトレーニングし、評価するために、実世界のデータセットの取得と並行して、合成データセットを開発した。
ベンチマーク評価の結果、実世界のデータセットでは、シーンレベルの検出では88.13\%、インスタンスレベルの検出では84.60\%の精度が得られた。
我々は、このベンチマークをCP検出を加速し、道路安全、インテリジェント交通システム、人工知能の分野間の相互作用を促進するテストベッドとして想定する。
ベンチマークデータセットと検出モデルの両方がhttps://github.com/SustainableMobility/cyc-cpで利用可能になる。
関連論文リスト
- G-MEMP: Gaze-Enhanced Multimodal Ego-Motion Prediction in Driving [71.9040410238973]
我々は、視線データを用いて、運転者の車両のエゴ軌道を推定することに集中する。
次に、GPSとビデオ入力と視線データを組み合わせた新しいマルチモーダルエゴ軌道予測ネットワークであるG-MEMPを開発する。
その結果,G-MEMPは両ベンチマークにおいて最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-12-13T23:06:30Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Monocular Cyclist Detection with Convolutional Neural Networks [0.0]
本研究は,盲点に対する運転者の注意不足に起因する車両と自転車の衝突回数を減らすことを目的としている。
我々は、物体検出畳み込みニューラルネットワークを用いてサイクリストを検出できる最先端のリアルタイム単眼サイクリスト検出を設計した。
このサイクリスト検出装置は、サイクリストを正確にかつ迅速に検出し、サイクリストの安全性を大幅に向上させる可能性があると結論付けている。
論文 参考訳(メタデータ) (2023-01-16T13:54:13Z) - Unsupervised Driving Event Discovery Based on Vehicle CAN-data [62.997667081978825]
本研究は,車両CANデータのクラスタリングとセグメンテーションを同時に行うことで,一般的な運転イベントを教師なしで識別する手法である。
我々は、実際のTesla Model 3車載CANデータと、異なる運転イベントをアノテートした2時間の運転セッションのデータセットを用いて、アプローチを評価した。
論文 参考訳(メタデータ) (2023-01-12T13:10:47Z) - Real-Time Accident Detection in Traffic Surveillance Using Deep Learning [0.8808993671472349]
本稿では,交通監視用交差点における事故検出のための新しい効率的な枠組みを提案する。
提案手法は,最先端のYOLOv4法に基づく効率的かつ高精度な物体検出を含む,3つの階層的なステップから構成される。
提案フレームワークのロバスト性は,様々な照明条件でYouTubeから収集した映像シーケンスを用いて評価する。
論文 参考訳(メタデータ) (2022-08-12T19:07:20Z) - Cross-Camera Trajectories Help Person Retrieval in a Camera Network [124.65912458467643]
既存の手法では、純粋な視覚的マッチングや時間的制約を考慮することが多いが、カメラネットワークの空間情報は無視する。
本稿では,時間的情報と空間的情報を統合したクロスカメラ生成に基づく歩行者検索フレームワークを提案する。
本手法の有効性を検証するため,最初のカメラ横断歩行者軌跡データセットを構築した。
論文 参考訳(メタデータ) (2022-04-27T13:10:48Z) - Euro-PVI: Pedestrian Vehicle Interactions in Dense Urban Centers [126.81938540470847]
歩行者と自転車の軌跡のデータセットであるEuro-PVIを提案する。
本研究では,都市環境におけるエージェント間のマルチモーダル共有潜在空間を表現的に学習する共同推論モデルを開発する。
我々は,エゴ車と歩行者(自転車)の相互作用を正確に予測するために捉えることの重要性を示すnuScenesとEuro-PVIデータセット上での成果を達成した。
論文 参考訳(メタデータ) (2021-06-22T15:40:21Z) - Interaction Detection Between Vehicles and Vulnerable Road Users: A Deep
Generative Approach with Attention [9.442285577226606]
交差点における相互作用検出のための条件生成モデルを提案する。
道路利用者の行動の連続性に関する膨大な映像データを自動解析することを目的としています。
モデルの有効性は実世界のデータセットでテストすることによって検証された。
論文 参考訳(メタデータ) (2021-05-09T10:03:55Z) - CyclingNet: Detecting cycling near misses from video streams in complex
urban scenes with deep learning [1.462434043267217]
CyclingNetは、自己注意型双方向長短メモリ(LSTM)ブロックに埋め込まれた畳み込み構造に基づく深層コンピュータビジョンモデルである。
1つのGPUで42時間トレーニングした後、モデルはトレーニング、テスト、バリデーションセットに対して高い精度を示す。
このモデルは、都市のサイクリング行動に関する重要な結論を導く情報を生成するために使用されることを意図している。
論文 参考訳(メタデータ) (2021-01-31T23:59:28Z) - Edge Computing for Real-Time Near-Crash Detection for Smart
Transportation Applications [29.550609157368466]
交通事故に近いイベントは、さまざまなスマートトランスポートアプリケーションにとって重要なデータソースとなる。
本稿では,既存のダッシュカムの映像ストリームをリアルタイムに処理することで,エッジコンピューティングのパワーを活用してこれらの課題に対処する。
エッジコンピューティングをリアルタイムトラフィックビデオ分析に適用する最初の取り組みのひとつであり、スマートトランスポート研究やアプリケーションにおいて、複数のサブフィールドに恩恵をもたらすことが期待されている。
論文 参考訳(メタデータ) (2020-08-02T19:39:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。