論文の概要: Edge Computing for Real-Time Near-Crash Detection for Smart
Transportation Applications
- arxiv url: http://arxiv.org/abs/2008.00549v3
- Date: Fri, 27 Aug 2021 05:48:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 20:02:43.264510
- Title: Edge Computing for Real-Time Near-Crash Detection for Smart
Transportation Applications
- Title(参考訳): スマートトランスポートアプリケーションのリアルタイムニアクラッシュ検出のためのエッジコンピューティング
- Authors: Ruimin Ke, Zhiyong Cui, Yanlong Chen, Meixin Zhu, Hao Yang, Yinhai
Wang
- Abstract要約: 交通事故に近いイベントは、さまざまなスマートトランスポートアプリケーションにとって重要なデータソースとなる。
本稿では,既存のダッシュカムの映像ストリームをリアルタイムに処理することで,エッジコンピューティングのパワーを活用してこれらの課題に対処する。
エッジコンピューティングをリアルタイムトラフィックビデオ分析に適用する最初の取り組みのひとつであり、スマートトランスポート研究やアプリケーションにおいて、複数のサブフィールドに恩恵をもたらすことが期待されている。
- 参考スコア(独自算出の注目度): 29.550609157368466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traffic near-crash events serve as critical data sources for various smart
transportation applications, such as being surrogate safety measures for
traffic safety research and corner case data for automated vehicle testing.
However, there are several key challenges for near-crash detection. First,
extracting near-crashes from original data sources requires significant
computing, communication, and storage resources. Also, existing methods lack
efficiency and transferability, which bottlenecks prospective large-scale
applications. To this end, this paper leverages the power of edge computing to
address these challenges by processing the video streams from existing dashcams
onboard in a real-time manner. We design a multi-thread system architecture
that operates on edge devices and model the bounding boxes generated by object
detection and tracking in linear complexity. The method is insensitive to
camera parameters and backward compatible with different vehicles. The edge
computing system has been evaluated with recorded videos and real-world tests
on two cars and four buses for over ten thousand hours. It filters out
irrelevant videos in real-time thereby saving labor cost, processing time,
network bandwidth, and data storage. It collects not only event videos but also
other valuable data such as road user type, event location, time to collision,
vehicle trajectory, vehicle speed, brake switch, and throttle. The experiments
demonstrate the promising performance of the system regarding efficiency,
accuracy, reliability, and transferability. It is among the first efforts in
applying edge computing for real-time traffic video analytics and is expected
to benefit multiple sub-fields in smart transportation research and
applications.
- Abstract(参考訳): 交通事故に近いイベントは、交通安全研究のための安全対策や自動車両テストのためのコーナーケースデータなど、さまざまなスマートトランスポートアプリケーションにとって重要なデータソースとなる。
しかし、ニアクラッシュ検出にはいくつかの重要な課題がある。
まず、元のデータソースからクレーシェに近いものを抽出するには、重要なコンピューティング、通信、ストレージリソースが必要です。
また、既存の手法は効率と転送性に欠けており、将来の大規模応用をボトルネックにしている。
そこで本稿では,既存のダッシュカムの映像ストリームをリアルタイムに処理することで,エッジコンピューティングのパワーを活用して,これらの課題に対処する。
エッジデバイスで動作するマルチスレッドシステムアーキテクチャを設計し,オブジェクトの検出と追跡によって生成される境界ボックスを線形複雑度でモデル化する。
この方法はカメラパラメータに無感であり、異なる車両と後方互換性がある。
エッジコンピューティングシステムは、2台の車と4台のバスで1万時間以上にわたって記録されたビデオと実世界のテストで評価されている。
それは無関係なビデオをリアルタイムでフィルターし、コスト、処理時間、ネットワーク帯域、データストレージを節約する。
イベントビデオだけでなく、道路利用者の種類、イベント位置、衝突までの時間、車両軌道、車両速度、ブレーキスイッチ、スロットルなどの貴重なデータも収集する。
実験では, 効率, 精度, 信頼性, 伝達性に関するシステムの性能を実証した。
リアルタイムトラヒックビデオ分析にエッジコンピューティングを適用する最初の取り組みのひとつであり、スマートトランスポーテーション研究やアプリケーションにおいて、複数のサブフィールドにメリットが期待されている。
関連論文リスト
- Real-Time Pedestrian Detection on IoT Edge Devices: A Lightweight Deep Learning Approach [1.4732811715354455]
本研究では,AIoT(Artificial Intelligence of Things)エッジデバイス上での軽量ディープラーニングモデルの実装について検討する。
You Only Look Once (YOLO)ベースのDLモデルは、リアルタイムな歩行者検出のためにデプロイされる。
シミュレーションの結果、最適化されたYOLOモデルは、高速な推論速度147ミリ秒、フレームレート2.3フレーム/秒、精度78%でリアルタイムな歩行者検出を実現できることが示された。
論文 参考訳(メタデータ) (2024-09-24T04:48:41Z) - Advance Real-time Detection of Traffic Incidents in Highways using Vehicle Trajectory Data [3.061662434597097]
本研究は、ルイジアナ州で最も急激な高速道路であるI-10の車両軌跡データと交通事故データを用いている。
さまざまな機械学習アルゴリズムを使用して、下流の道路区間で事故に遭遇する可能性のある軌道を検出する。
その結果,ランダムフォレストモデルでは,適切なリコール値と識別能力を持つインシデントを予測する上で,最高の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-08-15T00:51:48Z) - Application of 2D Homography for High Resolution Traffic Data Collection
using CCTV Cameras [9.946460710450319]
本研究では,CCTVカメラから高精細なトラフィックデータを抽出するための3段階のビデオ分析フレームワークを実装した。
このフレームワークの主要な構成要素は、オブジェクト認識、視点変換、車両軌道再構成である。
その結果, カメラ推定値間の速度偏差は10%以下で, 方向トラフィック数では+/-4.5%の誤差率を示した。
論文 参考訳(メタデータ) (2024-01-14T07:33:14Z) - Implicit Occupancy Flow Fields for Perception and Prediction in
Self-Driving [68.95178518732965]
自動運転車(SDV)は、周囲を認識でき、他の交通参加者の将来の行動を予測できなければならない。
既存の作業は、検出されたオブジェクトの軌跡が続くオブジェクト検出を実行するか、シーン全体の密度の高い占有とフローグリッドを予測するかのいずれかである。
これは、認識と将来の予測に対する統一されたアプローチを動機付け、単一のニューラルネットワークで時間とともに占有とフローを暗黙的に表現します。
論文 参考訳(メタデータ) (2023-08-02T23:39:24Z) - TAD: A Large-Scale Benchmark for Traffic Accidents Detection from Video
Surveillance [2.1076255329439304]
既存の交通事故のデータセットは小規模で、監視カメラからではなく、オープンソースではない。
様々な次元による統合とアノテーションの後に,TADという大規模交通事故データセットが提案されている。
論文 参考訳(メタデータ) (2022-09-26T03:00:50Z) - Real-Time Accident Detection in Traffic Surveillance Using Deep Learning [0.8808993671472349]
本稿では,交通監視用交差点における事故検出のための新しい効率的な枠組みを提案する。
提案手法は,最先端のYOLOv4法に基づく効率的かつ高精度な物体検出を含む,3つの階層的なステップから構成される。
提案フレームワークのロバスト性は,様々な照明条件でYouTubeから収集した映像シーケンスを用いて評価する。
論文 参考訳(メタデータ) (2022-08-12T19:07:20Z) - Federated Deep Learning Meets Autonomous Vehicle Perception: Design and
Verification [168.67190934250868]
フェデレーテッド・ラーニング・パワード・コネクテッド・オートモービル(FLCAV)が提案されている。
FLCAVは通信とアノテーションのコストを削減しながらプライバシを保存する。
マルチステージトレーニングのためのネットワークリソースと道路センサのポーズを決定することは困難である。
論文 参考訳(メタデータ) (2022-06-03T23:55:45Z) - Scalable and Real-time Multi-Camera Vehicle Detection,
Re-Identification, and Tracking [58.95210121654722]
理想化されたビデオストリームやキュレートされたビデオストリームの代わりに,リアルタイムで低解像度のCCTVを処理する,リアルタイムな都市規模のマルチカメラ車両追跡システムを提案する。
私たちの手法は、公共のリーダーボードで上位5人のパフォーマーにランク付けされています。
論文 参考訳(メタデータ) (2022-04-15T12:47:01Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - An Experimental Urban Case Study with Various Data Sources and a Model
for Traffic Estimation [65.28133251370055]
我々はスイスのチューリッヒの都市ネットワーク内の地域でビデオ計測による実験キャンペーンを組織した。
我々は,既存のサーマルカメラからの測定を確実にすることで,交通の流れや走行時間の観点からの交通状況の把握に注力する。
本稿では,様々なデータソースの融合による移動時間を推定するために,単純かつ効率的な多重線形回帰(MLR)モデルを提案する。
論文 参考訳(メタデータ) (2021-08-02T08:13:57Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。