論文の概要: Computer Vision based Animal Collision Avoidance Framework for
Autonomous Vehicles
- arxiv url: http://arxiv.org/abs/2012.10878v1
- Date: Sun, 20 Dec 2020 09:51:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-01 04:42:02.066563
- Title: Computer Vision based Animal Collision Avoidance Framework for
Autonomous Vehicles
- Title(参考訳): コンピュータビジョンによる自動運転車の動物衝突回避フレームワーク
- Authors: Savyasachi Gupta, Dhananjai Chand, and Ilaiah Kavati
- Abstract要約: 動物はインドの道路でよく目撃されており、毎年自動車と自動車の事故が多発している。
これにより、このような事故の防止を支援するドライバーレス車両支援システムの開発が不可欠となる。
高速道路での動物検出の効率的なアプローチを開発することにより、車両と動物との衝突を回避するためのフレームワークを提案します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Animals have been a common sighting on roads in India which leads to several
accidents between them and vehicles every year. This makes it vital to develop
a support system for driverless vehicles that assists in preventing these forms
of accidents. In this paper, we propose a neoteric framework for avoiding
vehicle-to-animal collisions by developing an efficient approach for the
detection of animals on highways using deep learning and computer vision
techniques on dashcam video. Our approach leverages the Mask R-CNN model for
detecting and identifying various commonly found animals. Then, we perform lane
detection to deduce whether a detected animal is on the vehicle's lane or not
and track its location and direction of movement using a centroid based object
tracking algorithm. This approach ensures that the framework is effective at
determining whether an animal is obstructing the path or not of an autonomous
vehicle in addition to predicting its movement and giving feedback accordingly.
This system was tested under various lighting and weather conditions and was
observed to perform relatively well, which leads the way for prominent
driverless vehicle's support systems for avoiding vehicular collisions with
animals on Indian roads in real-time.
- Abstract(参考訳): 動物はインドの道路でよく目撃されており、毎年自動車と自動車の事故が多発している。
これにより、このような事故の防止を支援するドライバーレス車両支援システムの開発が不可欠となる。
本稿では,ダシュカムビデオ上での深層学習とコンピュータビジョン技術を用いて,高速道路上での動物検出のための効率的なアプローチを開発することにより,車両と動物との衝突を避ける新奇な枠組みを提案する。
本手法では,マスクr-cnnモデルを用いて各種動物を検出・同定する。
そして車線検出を行い、検出された動物が車線上にあるか否かを推定し、遠心性物体追跡アルゴリズムを用いてその位置と移動方向を追跡する。
このアプローチは、動物が自律走行車の経路を妨害しているかどうかを判断し、その動きを予測し、それに応じてフィードバックを与えるのに効果的であることを保証する。
このシステムは様々な照明や気象条件下でテストされ、比較的良好な性能を示すことが観測され、インドの道路で動物と車両の衝突をリアルタイムに回避するための、著名な無人車のサポートシステムへと繋がった。
関連論文リスト
- MSight: An Edge-Cloud Infrastructure-based Perception System for
Connected Automated Vehicles [58.461077944514564]
本稿では,自動走行車に特化して設計された最先端道路側認識システムであるMSightについて述べる。
MSightは、リアルタイムの車両検出、ローカライゼーション、トラッキング、短期的な軌道予測を提供する。
評価は、待ち時間を最小限にしてレーンレベルの精度を維持するシステムの能力を強調している。
論文 参考訳(メタデータ) (2023-10-08T21:32:30Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - A Real-Time Wrong-Way Vehicle Detection Based on YOLO and Centroid
Tracking [0.0]
誤運転は、世界中の道路事故や交通渋滞の主な原因の1つである。
本稿では,道路監視カメラによる車両自動検知システムを提案する。
論文 参考訳(メタデータ) (2022-10-19T00:53:28Z) - Threat Detection In Self-Driving Vehicles Using Computer Vision [0.0]
ダッシュカムビデオを用いた自動運転車の脅威検出機構を提案する。
オブジェクトを識別するためのYOLO,高度な車線検出アルゴリズム,カメラからの距離を測定するマルチレグレッションモデルという,4つの主要なコンポーネントがある。
提案した脅威検出モデル(TDM)の最終的な精度は82.65%である。
論文 参考訳(メタデータ) (2022-09-06T12:01:07Z) - Real-Time Accident Detection in Traffic Surveillance Using Deep Learning [0.8808993671472349]
本稿では,交通監視用交差点における事故検出のための新しい効率的な枠組みを提案する。
提案手法は,最先端のYOLOv4法に基づく効率的かつ高精度な物体検出を含む,3つの階層的なステップから構成される。
提案フレームワークのロバスト性は,様々な照明条件でYouTubeから収集した映像シーケンスを用いて評価する。
論文 参考訳(メタデータ) (2022-08-12T19:07:20Z) - Exploiting Playbacks in Unsupervised Domain Adaptation for 3D Object
Detection [55.12894776039135]
ディープラーニングに基づく最先端の3Dオブジェクト検出器は、有望な精度を示しているが、ドメインの慣用性に過度に適合する傾向がある。
対象領域の擬似ラベルの検出器を微調整することで,このギャップを大幅に削減する新たな学習手法を提案する。
5つの自律運転データセットにおいて、これらの擬似ラベル上の検出器を微調整することで、新しい運転環境への領域ギャップを大幅に減らすことを示す。
論文 参考訳(メタデータ) (2021-03-26T01:18:11Z) - Self-Supervised Steering Angle Prediction for Vehicle Control Using
Visual Odometry [55.11913183006984]
視覚オドメトリー法を用いて推定したカメラポーズを用いて,車両の軌道制御をモデルに訓練する方法を示す。
車両の前方にカメラを設置することにより,複数の異なる走行経路からの軌跡情報を活用するスケーラブルなフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-20T16:29:01Z) - Vehicle trajectory prediction in top-view image sequences based on deep
learning method [1.181206257787103]
周囲の車両の動きを推定し予測することは、自動車両と高度な安全システムにとって不可欠である。
道路の空中画像から得られた画像から学習した計算複雑性の低いモデルを提案する。
提案モデルでは, 対象車両とその周辺車両の移動履歴に関する画像を見るだけで, 自動車の将来の進路を予測できる。
論文 参考訳(メタデータ) (2021-02-02T20:48:19Z) - Computer Vision based Accident Detection for Autonomous Vehicles [0.0]
ダッシュボードカメラを用いて車両事故を検出する自動運転支援システムを提案する。
このフレームワークは、ダッシュカム映像のカスタムデータセットでテストされ、誤報率を低く保ちながら、高い事故検出率を達成する。
論文 参考訳(メタデータ) (2020-12-20T08:51:10Z) - Driver Intention Anticipation Based on In-Cabin and Driving Scene
Monitoring [52.557003792696484]
本稿では,車内映像と交通シーン映像の両方に基づいて運転者の意図を検出する枠組みを提案する。
本フレームワークは,83.98%,F1スコア84.3%の精度で予測を行う。
論文 参考訳(メタデータ) (2020-06-20T11:56:32Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。