論文の概要: CyclingNet: Detecting cycling near misses from video streams in complex
urban scenes with deep learning
- arxiv url: http://arxiv.org/abs/2102.00565v1
- Date: Sun, 31 Jan 2021 23:59:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-02 16:58:24.095964
- Title: CyclingNet: Detecting cycling near misses from video streams in complex
urban scenes with deep learning
- Title(参考訳): サイクリングネット:深層学習による複雑な都市シーンにおける映像ストリームからの近距離サイクリング検出
- Authors: Mohamed R. Ibrahim, James Haworth, Nicola Christie and Tao Cheng
- Abstract要約: CyclingNetは、自己注意型双方向長短メモリ(LSTM)ブロックに埋め込まれた畳み込み構造に基づく深層コンピュータビジョンモデルである。
1つのGPUで42時間トレーニングした後、モデルはトレーニング、テスト、バリデーションセットに対して高い精度を示す。
このモデルは、都市のサイクリング行動に関する重要な結論を導く情報を生成するために使用されることを意図している。
- 参考スコア(独自算出の注目度): 1.462434043267217
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Cycling is a promising sustainable mode for commuting and leisure in cities,
however, the fear of getting hit or fall reduces its wide expansion as a
commuting mode. In this paper, we introduce a novel method called CyclingNet
for detecting cycling near misses from video streams generated by a mounted
frontal camera on a bike regardless of the camera position, the conditions of
the built, the visual conditions and without any restrictions on the riding
behaviour. CyclingNet is a deep computer vision model based on convolutional
structure embedded with self-attention bidirectional long-short term memory
(LSTM) blocks that aim to understand near misses from both sequential images of
scenes and their optical flows. The model is trained on scenes of both safe
rides and near misses. After 42 hours of training on a single GPU, the model
shows high accuracy on the training, testing and validation sets. The model is
intended to be used for generating information that can draw significant
conclusions regarding cycling behaviour in cities and elsewhere, which could
help planners and policy-makers to better understand the requirement of safety
measures when designing infrastructure or drawing policies. As for future work,
the model can be pipelined with other state-of-the-art classifiers and object
detectors simultaneously to understand the causality of near misses based on
factors related to interactions of road-users, the built and the natural
environments.
- Abstract(参考訳): サイクリングは、都市での通勤やレジャーにとって有望な持続可能なモードであるが、衝突や転倒の恐れは、通勤モードとして幅広い拡大を減少させる。
本論文では,自転車に搭載されたフロントカメラが生成する映像ストリームから,カメラの位置,構築状況,視覚的条件,走行動作の制限などに関係なく,走行距離付近のサイクリングを検出する新しい手法であるCyclingNetについて紹介する。
CyclingNet(サイクリングネット)は、シーンの連続的な画像とその光学的流れの両方から近接ミスを理解することを目的とした自己注目の双方向長期メモリ(LSTM)ブロックが埋め込まれた畳み込み構造に基づく深層コンピュータビジョンモデルです。
モデルは安全な乗り物と近いミスの両方のシーンで訓練されています。
単一のGPU上で42時間のトレーニングを行った後、モデルはトレーニング、テスト、検証セットで高い精度を示します。
このモデルは、都市計画者や政策立案者がインフラの設計や政策策定の際の安全対策の必要性をよりよく理解できるように、都市などのサイクリング行動に関する重要な結論を導き出す情報を生成するために使用される。
将来の作業では、モデルは、道路利用者、構築された環境および自然環境の相互作用に関連する要因に基づいて、近接ミスの因果関係を理解するために、他の最先端の分類器およびオブジェクト検出器と同時にパイプライン化することができる。
関連論文リスト
- Classifying Bicycle Infrastructure Using On-Bike Street-Level Images [0.0]
多くの潜在的なサイクリストは、適切な安全なインフラが欠如しているため、サイクリングを控えている。
自転車用スマートフォンカメラデータから利用可能なサイクリングインフラを分類できるシステムを提案する。
この研究は、自転車に搭載された携帯電話カメラから収集されたストリートレベルの画像のみを使用して、サイクリングインフラを分類した最初のものである。
論文 参考訳(メタデータ) (2024-10-24T22:58:31Z) - Discovering Cyclists' Visual Preferences Through Shared Bike Trajectories and Street View Images Using Inverse Reinforcement Learning [2.678595263943329]
本稿では,サイクリストの複雑な視覚的嗜好の定量化と解釈を目的とした新しい枠組みを提案する。
我々は,サイクリング報酬関数の効率的な推定にMDDIRLモデルを適用した。
サイクリストはルート決定を行う際に、特定の道路視覚要素に注目する。
論文 参考訳(メタデータ) (2024-09-05T00:54:48Z) - LaneTCA: Enhancing Video Lane Detection with Temporal Context Aggregation [87.71768494466959]
LaneTCAは個々のビデオフレームをブリッジし、時間的コンテキストを効果的に集約する方法を探る。
本研究では,長期的・短期的文脈を抽象化するアキュマティブアテンションモジュールと隣接アテンションモジュールを開発する。
2つのモジュールは、トランスフォーマーアーキテクチャに基づいて慎重に設計されている。
論文 参考訳(メタデータ) (2024-08-25T14:46:29Z) - A Benchmark for Cycling Close Pass Near Miss Event Detection from Video
Streams [35.17510169229505]
我々はCyc-CPと呼ばれる新しいベンチマークを導入し、ビデオストリームからのミスイベント検出に近づいた近距離通過をサイクリングする。
これら2つの問題に対するディープラーニング技術に基づくベンチマークモデルを提案する。
我々のモデルは実世界のデータセットで88.13%と84.60%の精度を達成できる。
論文 参考訳(メタデータ) (2023-04-24T07:30:01Z) - OpenLane-V2: A Topology Reasoning Benchmark for Unified 3D HD Mapping [84.65114565766596]
交通シーン構造を考慮したトポロジ推論のための最初のデータセットであるOpenLane-V2を提案する。
OpenLane-V2は2000のアノテートされた道路シーンで構成され、交通要素と車線との関係を記述している。
様々な最先端手法を評価し,OpenLane-V2の定量的,定性的な結果を示し,交通現場におけるトポロジ推論の今後の道筋を示す。
論文 参考訳(メタデータ) (2023-04-20T16:31:22Z) - Monocular Cyclist Detection with Convolutional Neural Networks [0.0]
本研究は,盲点に対する運転者の注意不足に起因する車両と自転車の衝突回数を減らすことを目的としている。
我々は、物体検出畳み込みニューラルネットワークを用いてサイクリストを検出できる最先端のリアルタイム単眼サイクリスト検出を設計した。
このサイクリスト検出装置は、サイクリストを正確にかつ迅速に検出し、サイクリストの安全性を大幅に向上させる可能性があると結論付けている。
論文 参考訳(メタデータ) (2023-01-16T13:54:13Z) - Street-View Image Generation from a Bird's-Eye View Layout [95.36869800896335]
近年,Bird's-Eye View (BEV) の知覚が注目されている。
自動運転のためのデータ駆動シミュレーションは、最近の研究の焦点となっている。
本稿では,現実的かつ空間的に一貫した周辺画像を合成する条件生成モデルであるBEVGenを提案する。
論文 参考訳(メタデータ) (2023-01-11T18:39:34Z) - Improving short-term bike sharing demand forecast through an irregular
convolutional neural network [16.688608586485316]
本研究は,自転車の短期共有需要予測を改善するために,不規則な畳み込み長短記憶モデル(IrConv+LSTM)を提案する。
提案モデルは,シンガポールのドックレス自転車シェアリングシステムと,シカゴ,ワシントンD.C.,ニューヨーク,ロンドンにある4つのステーションベースシステムを含む,5つの調査サイトでベンチマークモデルを用いて評価された。
このモデルはまた、自転車使用量やピーク期間の異なる地域での優れたパフォーマンスも達成している。
論文 参考訳(メタデータ) (2022-02-09T10:21:45Z) - Structured Bird's-Eye-View Traffic Scene Understanding from Onboard
Images [128.881857704338]
本研究では,BEV座標における局所道路網を表す有向グラフを,単眼カメラ画像から抽出する問題について検討する。
提案手法は,BEV平面上の動的物体を検出するために拡張可能であることを示す。
我々は、強力なベースラインに対するアプローチを検証するとともに、ネットワークが優れたパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-10-05T12:40:33Z) - Euro-PVI: Pedestrian Vehicle Interactions in Dense Urban Centers [126.81938540470847]
歩行者と自転車の軌跡のデータセットであるEuro-PVIを提案する。
本研究では,都市環境におけるエージェント間のマルチモーダル共有潜在空間を表現的に学習する共同推論モデルを開発する。
我々は,エゴ車と歩行者(自転車)の相互作用を正確に予測するために捉えることの重要性を示すnuScenesとEuro-PVIデータセット上での成果を達成した。
論文 参考訳(メタデータ) (2021-06-22T15:40:21Z) - SceneGen: Learning to Generate Realistic Traffic Scenes [92.98412203941912]
私たちは、ルールと分布の必要性を緩和するトラフィックシーンのニューラルオートレグレッシブモデルであるSceneGenを紹介します。
実トラフィックシーンの分布を忠実にモデル化するSceneGenの能力を実証する。
論文 参考訳(メタデータ) (2021-01-16T22:51:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。