論文の概要: Experimental Analysis of Trajectory Control Using Computer Vision and
Artificial Intelligence for Autonomous Vehicles
- arxiv url: http://arxiv.org/abs/2106.07003v1
- Date: Sun, 13 Jun 2021 14:23:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-15 16:08:40.994771
- Title: Experimental Analysis of Trajectory Control Using Computer Vision and
Artificial Intelligence for Autonomous Vehicles
- Title(参考訳): 自律走行車におけるコンピュータビジョンと人工知能を用いた軌道制御の実験的検討
- Authors: Ammar N. Abbas, Muhammad Asad Irshad, and Hossam Hassan Ammar
- Abstract要約: 本稿では,車線検出手法について述べる。
次のアプローチは、認識に基づく制御則を適用して、操舵と速度制御を制御することである。
グラフ統計学を用いて、オープンループ応答、PID制御、ニューラルネットワーク制御法則の比較分析を行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Perception of the lane boundaries is crucial for the tasks related to
autonomous trajectory control. In this paper, several methodologies for lane
detection are discussed with an experimental illustration: Hough
transformation, Blob analysis, and Bird's eye view. Following the abstraction
of lane marks from the boundary, the next approach is applying a control law
based on the perception to control steering and speed control. In the
following, a comparative analysis is made between an open-loop response, PID
control, and a neural network control law through graphical statistics. To get
the perception of the surrounding a wireless streaming camera connected to
Raspberry Pi is used. After pre-processing the signal received by the camera
the output is sent back to the Raspberry Pi that processes the input and
communicates the control to the motors through Arduino via serial
communication.
- Abstract(参考訳): レーン境界の認識は、自律軌道制御に関連するタスクに不可欠である。
本稿では,ハフ変換,ブロブ解析,鳥の眼球図など,いくつかのレーン検出手法について実験的に考察した。
境界からのレーンマークの抽象化に続いて、次のアプローチでは、ステアリングとスピード制御の制御に知覚に基づく制御法則を適用する。
以下の例では、オープンループ応答、pid制御、およびニューラルネットワーク制御則をグラフ統計によって比較分析する。
Raspberry Piに接続されたワイヤレスストリーミングカメラの周囲の認識を得る。
カメラが受信した信号を前処理した後、出力はraspberry piに送信され、入力を処理し、シリアル通信を介してarduinoを介してモーターに制御を伝達する。
関連論文リスト
- ControlNet-XS: Rethinking the Control of Text-to-Image Diffusion Models as Feedback-Control Systems [19.02295657801464]
本研究では,既存の制御ネットワーク(ControlNet)を用いて,制御ネットワークと生成プロセス間の通信を高周波かつ大帯域で変更する。
我々は,深度,キャニーエッジ,セマンティックセグメンテーションなどの画素レベルのガイダンスに対する最先端のアプローチよりも優れており,人間のポーズのゆるいキーポイントガイダンスと同等である。
すべてのコードと事前訓練されたモデルは公開されます。
論文 参考訳(メタデータ) (2023-12-11T17:58:06Z) - LeTFuser: Light-weight End-to-end Transformer-Based Sensor Fusion for
Autonomous Driving with Multi-Task Learning [16.241116794114525]
本稿では,複数のRGB-Dカメラ表現を融合させるアルゴリズムであるLeTFuserを紹介する。
認識と制御を同時に行うためには,マルチタスク学習を利用する。
論文 参考訳(メタデータ) (2023-10-19T20:09:08Z) - UnLoc: A Universal Localization Method for Autonomous Vehicles using
LiDAR, Radar and/or Camera Input [51.150605800173366]
UnLocは、全ての気象条件におけるマルチセンサー入力によるローカライズのための、新しい統一型ニューラルネットワークアプローチである。
本手法は,Oxford Radar RobotCar,Apollo SouthBay,Perth-WAの各データセットで広く評価されている。
論文 参考訳(メタデータ) (2023-07-03T04:10:55Z) - Federated Deep Learning Meets Autonomous Vehicle Perception: Design and
Verification [168.67190934250868]
フェデレーテッド・ラーニング・パワード・コネクテッド・オートモービル(FLCAV)が提案されている。
FLCAVは通信とアノテーションのコストを削減しながらプライバシを保存する。
マルチステージトレーニングのためのネットワークリソースと道路センサのポーズを決定することは困難である。
論文 参考訳(メタデータ) (2022-06-03T23:55:45Z) - CNN-based Omnidirectional Object Detection for HermesBot Autonomous
Delivery Robot with Preliminary Frame Classification [53.56290185900837]
予備的バイナリフレーム分類を用いた物体検出のためのニューラルネットワークの最適化アルゴリズムを提案する。
周囲に6台のローリングシャッターカメラを備えた自律移動ロボットを360度視野として実験装置として使用した。
論文 参考訳(メタデータ) (2021-10-22T15:05:37Z) - A Pedestrian Detection and Tracking Framework for Autonomous Cars:
Efficient Fusion of Camera and LiDAR Data [0.17205106391379021]
本稿では,カメラとLiDARセンサデータを用いた歩行者検出と追跡のための新しい手法を提案する。
検出フェーズは、LiDARストリームを計算的に抽出可能な深度画像に変換し、さらに、歩行者候補を特定するディープニューラルネットワークを開発する。
トラッキングフェーズは、Kalmanフィルタ予測と、シーン内の複数の歩行者を追跡するための光フローアルゴリズムの組み合わせである。
論文 参考訳(メタデータ) (2021-08-27T16:16:01Z) - Scalable Perception-Action-Communication Loops with Convolutional and
Graph Neural Networks [208.15591625749272]
視覚に基づくグラフアグリゲーション・アンド・推論(VGAI)を用いた知覚-行動-コミュニケーションループの設計を提案する。
我々のフレームワークは、畳み込みとグラフニューラルネットワーク(CNN/GNN)のカスケードによって実装され、エージェントレベルの視覚知覚と特徴学習に対処する。
我々は、VGAIが他の分散コントローラに匹敵する性能を得ることを示した。
論文 参考訳(メタデータ) (2021-06-24T23:57:21Z) - Self-Supervised Steering Angle Prediction for Vehicle Control Using
Visual Odometry [55.11913183006984]
視覚オドメトリー法を用いて推定したカメラポーズを用いて,車両の軌道制御をモデルに訓練する方法を示す。
車両の前方にカメラを設置することにより,複数の異なる走行経路からの軌跡情報を活用するスケーラブルなフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-20T16:29:01Z) - Real-time Lane detection and Motion Planning in Raspberry Pi and Arduino
for an Autonomous Vehicle Prototype [0.0]
Pi Camera 1.3はリアルタイムでビデオを撮影し、Raspberry-Pi 3.0 Model Bで処理する。
画像処理アルゴリズムはPython 3.7.4でOpenCV 4.2で書かれている。
プロトタイプはリアルタイムで制御された環境でテストされた。
論文 参考訳(メタデータ) (2020-09-20T09:13:15Z) - Built Infrastructure Monitoring and Inspection Using UAVs and
Vision-based Algorithms [2.0305676256390934]
本研究では, 実時間制御無人航空機(UAV)による構造物表面の検査システムを提案する。
本システムは,Wentworthライトレールベース構造である目標構造を調査するために,良好な気象条件下で運用されている。
論文 参考訳(メタデータ) (2020-05-19T14:37:48Z) - Populations of Spiking Neurons for Reservoir Computing: Closed Loop
Control of a Compliant Quadruped [64.64924554743982]
本稿では,ニューラルネットワークを用いた中央パターン生成機構を実装し,閉ループロボット制御を実現するためのフレームワークを提案する。
本研究では,従順な四足歩行ロボットのシミュレーションモデル上で,予め定義された歩行パターン,速度制御,歩行遷移の学習を実演する。
論文 参考訳(メタデータ) (2020-04-09T14:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。