論文の概要: Detection of E-scooter Riders in Naturalistic Scenes
- arxiv url: http://arxiv.org/abs/2111.14060v1
- Date: Sun, 28 Nov 2021 05:59:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-30 17:09:44.829251
- Title: Detection of E-scooter Riders in Naturalistic Scenes
- Title(参考訳): 自然界におけるE-Scooter Riderの検出
- Authors: Kumar Apurv, Renran Tian, Rini Sherony
- Abstract要約: 本稿では,e-scooter ライダーと一般歩行者を区別する新しい視覚ベースシステムを提案する。
データセット上でMobileNetV2を微調整し、E-Scooterライダーと歩行者を分類するためにモデルをトレーニングします。
YOLOv3上でトレーニングされたMobileNetV2の分類精度は91%以上で、精度は0.9以上である。
- 参考スコア(独自算出の注目度): 2.1270496914042987
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: E-scooters have become ubiquitous vehicles in major cities around the
world.The numbers of e-scooters keep escalating, increasing their interactions
with other cars on the road. Normal behavior of an e-scooter rider varies
enormously to other vulnerable road users. This situation creates new
challenges for vehicle active safety systems and automated driving
functionalities, which require the detection of e-scooter riders as the first
step. To our best knowledge, there is no existing computer vision model to
detect these e-scooter riders. This paper presents a novel vision-based system
to differentiate between e-scooter riders and regular pedestrians and a
benchmark data set for e-scooter riders in natural scenes. We propose an
efficient pipeline built over two existing state-of-the-art convolutional
neural networks (CNN), You Only Look Once (YOLOv3) and MobileNetV2. We
fine-tune MobileNetV2 over our dataset and train the model to classify
e-scooter riders and pedestrians. We obtain a recall of around 0.75 on our raw
test sample to classify e-scooter riders with the whole pipeline. Moreover, the
classification accuracy of trained MobileNetV2 on top of YOLOv3 is over 91%,
with precision and recall over 0.9.
- Abstract(参考訳): 世界の主要都市では、電子スクーターがユビキタスな自動車になりつつある。
電動スクーターライダーの通常の挙動は、他の脆弱な道路利用者に大きく異なる。
この状況は、車両のアクティブセーフティシステムと自動運転機能に新たな課題をもたらし、eスクーターライダーを第1ステップとして検出する必要がある。
我々の知る限り、これらの電動スクーターライダーを検出するコンピュータービジョンモデルは存在しない。
本稿では,e-scooterライダーと通常の歩行者を区別する新しい視覚ベースシステムと,自然環境におけるe-scooterライダーのベンチマークデータセットを提案する。
既存の2つの畳み込みニューラルネットワーク(CNN)、You Only Look Once(YOLOv3)、MobileNetV2の上に構築された効率的なパイプラインを提案する。
データセット上でMobileNetV2を微調整し、E-Scooterライダーと歩行者を分類するためにモデルをトレーニングします。
我々は,eスクーターライダーを全パイプラインで分類するために,原テストサンプルで約 0.75 のリコールを得た。
さらに、YOLOv3上でトレーニングされたMobileNetV2の分類精度は91%以上であり、精度は0.9以上である。
関連論文リスト
- Performance Evaluation of Real-Time Object Detection for Electric Scooters [9.218359701264797]
電動スクーター(電動スクーター)は都市部の交通手段として急速に普及しているが、重大な安全上の課題を生じさせている。
本稿では,e-スクータ用に設計された最先端物体検出器の有効性と効率について検討する。
mAP@0.5で測定された検出精度は27.4%(YOLOv7-E6E)から86.8%(YOLOv5s)である。
論文 参考訳(メタデータ) (2024-05-05T20:00:22Z) - Risk assessment and mitigation of e-scooter crashes with naturalistic
driving data [2.862606936691229]
本稿では,e-scooterと自動車の遭遇に着目した自然主義的運転研究を提案する。
目標は、衝突シナリオのモデリングを容易にするために、異なる出会いの中でe-Scooterライダーの振る舞いを定量的に測定することである。
論文 参考訳(メタデータ) (2022-12-24T05:28:31Z) - A Wearable Data Collection System for Studying Micro-Level E-Scooter
Behavior in Naturalistic Road Environment [3.5466525046297264]
本稿では,自然道路環境におけるマイクロレベルのe-Scooter動作を調査するためのウェアラブルデータ収集システムを提案する。
ロボットオペレーティングシステム(ROS)を用いたLiDAR、カメラ、GPSの統合により、e-Scooterベースのデータ取得システムを開発した。
論文 参考訳(メタデータ) (2022-12-22T18:58:54Z) - E-Scooter Rider Detection and Classification in Dense Urban Environments [5.606792370296115]
本研究は,検出モデルの客観的評価を容易にするために,部分閉塞型E-スクータライダー検出のための新しいベンチマークを提案する。
技術の現状に対して15.93%の精度で検出性能を向上する,E-Scooterライダー検出の新規なオクルージョン対応手法を提案する。
論文 参考訳(メタデータ) (2022-05-20T13:50:36Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - CODA: A Real-World Road Corner Case Dataset for Object Detection in
Autonomous Driving [117.87070488537334]
我々は、ビジョンベース検出器のこの重要な問題を露呈する、CODAという挑戦的なデータセットを導入する。
大規模自動運転データセットで訓練された標準物体検出器の性能は、mARの12.8%以下に著しく低下した。
我々は最先端のオープンワールドオブジェクト検出器を実験し、CODAの新しいオブジェクトを確実に識別できないことを発見した。
論文 参考訳(メタデータ) (2022-03-15T08:32:56Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Micromobility in Smart Cities: A Closer Look at Shared Dockless
E-Scooters via Big Social Data [6.001713653976455]
ドックレス電動スクーター(電動スクーター)は、大都市での短距離通勤の代替手段として毎日登場している。
エスクーターは交通規制、公共安全、駐車場規制、責任問題など、市の管理における課題を生んでいる。
本稿では,ビッグデータを用いた共有e-scooterに関する大規模研究としては,これが初めてである。
論文 参考訳(メタデータ) (2020-10-28T19:59:45Z) - Learning Accurate and Human-Like Driving using Semantic Maps and
Attention [152.48143666881418]
本稿では,より正確かつ人間らしく運転できるエンド・ツー・エンド駆動モデルについて検討する。
HERE Technologiesのセマンティックマップとビジュアルマップを活用し、既存のDrive360データセットを拡張します。
私たちのモデルは、実世界の運転データ60時間3000kmのDrive360+HEREデータセットでトレーニングされ、評価されています。
論文 参考訳(メタデータ) (2020-07-10T22:25:27Z) - VehicleNet: Learning Robust Visual Representation for Vehicle
Re-identification [116.1587709521173]
我々は,4つのパブリックな車両データセットを活用することで,大規模車両データセット(VabyNet)を構築することを提案する。
VehicleNetからより堅牢な視覚表現を学習するための、シンプルで効果的な2段階プログレッシブアプローチを設計する。
AICity Challengeのプライベートテストセットにおいて,最先端の精度86.07%mAPを実現した。
論文 参考訳(メタデータ) (2020-04-14T05:06:38Z) - Learning by Cheating [72.9701333689606]
この難解な学習問題を2段階に分解することで単純化できることを示す。
提案手法を用いて、視覚に基づく自律運転システムの訓練を行い、芸術の状況を大幅に上回っている。
提案手法は,従来のCARLAベンチマークのすべてのタスクにおける100%の成功率を初めて達成し,NoCrashベンチマークに新しい記録を樹立し,従来の技術と比較すると,屈折率を桁違いに低減する。
論文 参考訳(メタデータ) (2019-12-27T18:59:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。