論文の概要: Real-time Lane detection and Motion Planning in Raspberry Pi and Arduino
for an Autonomous Vehicle Prototype
- arxiv url: http://arxiv.org/abs/2009.09391v1
- Date: Sun, 20 Sep 2020 09:13:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 13:10:33.481654
- Title: Real-time Lane detection and Motion Planning in Raspberry Pi and Arduino
for an Autonomous Vehicle Prototype
- Title(参考訳): Raspberry PiとArduinoによる自律走行車プロトタイプのリアルタイム車線検出と動作計画
- Authors: Alfa Rossi, Nadim Ahmed, Sultanus Salehin, Tashfique Hasnine
Choudhury, Golam Sarowar
- Abstract要約: Pi Camera 1.3はリアルタイムでビデオを撮影し、Raspberry-Pi 3.0 Model Bで処理する。
画像処理アルゴリズムはPython 3.7.4でOpenCV 4.2で書かれている。
プロトタイプはリアルタイムで制御された環境でテストされた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper discusses a vehicle prototype that recognizes streets' lanes and
plans its motion accordingly without any human input. Pi Camera 1.3 captures
real-time video, which is then processed by Raspberry-Pi 3.0 Model B. The image
processing algorithms are written in Python 3.7.4 with OpenCV 4.2. Arduino Uno
is utilized to control the PID algorithm that controls the motor controller,
which in turn controls the wheels. Algorithms that are used to detect the lanes
are the Canny edge detection algorithm and Hough transformation. Elementary
algebra is used to draw the detected lanes. After detection, the lanes are
tracked using the Kalman filter prediction method. Then the midpoint of the two
lanes is found, which is the initial steering direction. This initial steering
direction is further smoothed by using the Past Accumulation Average Method and
Kalman Filter Prediction Method. The prototype was tested in a controlled
environment in real-time. Results from comprehensive testing suggest that this
prototype can detect road lanes and plan its motion successfully.
- Abstract(参考訳): 本稿では、道路の車線を認識し、人間の入力なしにその動きを計画する車両プロトタイプについて述べる。
pi camera 1.3は、リアルタイムビデオをキャプチャし、raspberry-pi 3.0 model bで処理する。画像処理アルゴリズムは、opencv 4.2でpython 3.7.4で書かれている。
arduino unoは、モーターコントローラを制御するpidアルゴリズムを制御するために使われ、車輪を制御する。
レーンを検出するために使用されるアルゴリズムは、Cannyエッジ検出アルゴリズムとHough変換である。
基本代数は検出されたレーンを描くために使われる。
検出後のレーンはカルマンフィルタ予測法を用いて追跡される。
そして、最初の操舵方向である2車線の中間点が見つかる。
この初期ステアリング方向は、過去の蓄積平均法とカルマンフィルタ予測法を用いてさらに平滑化される。
プロトタイプは制御された環境でリアルタイムでテストされた。
包括的なテストの結果、このプロトタイプは道路レーンを検知し、その動きをうまく計画できることが示唆された。
関連論文リスト
- Monocular Lane Detection Based on Deep Learning: A Survey [51.19079381823076]
車線検出は自律運転認識システムにおいて重要な役割を果たす。
ディープラーニングアルゴリズムが普及するにつれて、ディープラーニングに基づく単眼車線検出手法が優れた性能を示した。
本稿では, 成熟度の高い2次元車線検出手法と開発途上国の3次元車線検出技術の両方を網羅して, 既存手法の概要を概説する。
論文 参考訳(メタデータ) (2024-11-25T12:09:43Z) - Multi-Object Tracking with Camera-LiDAR Fusion for Autonomous Driving [0.764971671709743]
提案したMOTアルゴリズムは、3段階のアソシエーションプロセスと、検出された動的障害物の運動を推定する拡張カルマンフィルタと、トラック管理フェーズとを備える。
多くの最先端のマルチモーダルMOTアプローチとは異なり、提案アルゴリズムはエゴのグローバルなポーズの地図や知識に依存しない。
このアルゴリズムはシミュレーションと実世界のデータの両方で検証され、良好な結果が得られる。
論文 参考訳(メタデータ) (2024-03-06T23:49:16Z) - Trajectory Poisson multi-Bernoulli mixture filter for traffic monitoring
using a drone [17.636403357588897]
本稿では,光・熱カメラを搭載したドローンを用いた交通監視のための多目的追跡(MOT)アルゴリズムを提案する。
画像上の物体検出は、カメラの種類ごとにニューラルネットワークを用いて行われる。
合成および実験データセットにおけるTPMBMフィルタの精度を検証した。
論文 参考訳(メタデータ) (2023-06-29T12:22:47Z) - An Efficient Transformer for Simultaneous Learning of BEV and Lane
Representations in 3D Lane Detection [55.281369497158515]
3次元車線検出のための効率的な変圧器を提案する。
バニラ変圧器と異なり、我々のモデルは車線とBEVの表現を同時に学習するクロスアテンション機構を含んでいる。
本手法は,2次元および3次元の車線特徴を画像ビューとBEVの特徴にそれぞれ適用することにより,2次元および3次元車線予測を実現する。
論文 参考訳(メタデータ) (2023-06-08T04:18:31Z) - Embracing Single Stride 3D Object Detector with Sparse Transformer [63.179720817019096]
自律走行のためのLiDARを用いた3次元物体検出では、物体サイズと入力シーンサイズとの比が2次元検出の場合に比べて有意に小さい。
多くの3D検出器は2D検出器の一般的な慣習に従っており、点雲の定量化後も特徴マップを分解する。
本稿では,SST(Single-stride Sparse Transformer)を提案する。
論文 参考訳(メタデータ) (2021-12-13T02:12:02Z) - Real-World Application of Various Trajectory Planning Algorithms on MIT
RACECAR [0.0]
3つの経路計画アルゴリズムがMIT RACECARに適用された。
アルゴリズムを比較するシナリオが作成されました。
APFは低処理負荷と単純な動作ロジックのために選択された。
論文 参考訳(メタデータ) (2021-08-17T12:08:49Z) - Experimental Analysis of Trajectory Control Using Computer Vision and
Artificial Intelligence for Autonomous Vehicles [0.0]
本稿では,車線検出手法について述べる。
次のアプローチは、認識に基づく制御則を適用して、操舵と速度制御を制御することである。
グラフ統計学を用いて、オープンループ応答、PID制御、ニューラルネットワーク制御法則の比較分析を行う。
論文 参考訳(メタデータ) (2021-06-13T14:23:18Z) - CurbScan: Curb Detection and Tracking Using Multi-Sensor Fusion [0.8722958995761769]
カーブ検出と追跡は、車両のローカライゼーションと経路計画に有用である。
本稿では,複数のセンサからデータを融合して縁石を検出・追跡する手法を提案する。
提案アルゴリズムは,KITTIデータセットとデータセットでそれぞれ4.5~22m,0~14m以内の精度を90%以上維持する。
論文 参考訳(メタデータ) (2020-10-09T22:48:20Z) - Towards Autonomous Driving: a Multi-Modal 360$^{\circ}$ Perception
Proposal [87.11988786121447]
本稿では,自動運転車の3次元物体検出と追跡のためのフレームワークを提案する。
このソリューションは、新しいセンサ融合構成に基づいて、正確で信頼性の高い道路環境検出を提供する。
自動運転車に搭載されたシステムの様々なテストは、提案された知覚スタックの適合性を評価することに成功している。
論文 参考訳(メタデータ) (2020-08-21T20:36:21Z) - DOPS: Learning to Detect 3D Objects and Predict their 3D Shapes [54.239416488865565]
LIDARデータに対する高速な1段3次元物体検出法を提案する。
我々の手法の中核となる新規性は高速かつシングルパスアーキテクチャであり、どちらも3次元の物体を検出し、それらの形状を推定する。
提案手法は,ScanNetシーンのオブジェクト検出で5%,オープンデータセットでは3.4%の精度で結果が得られた。
論文 参考訳(メタデータ) (2020-04-02T17:48:50Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。