論文の概要: Augmenting End-to-End Steering Angle Prediction with CAN Bus Data
- arxiv url: http://arxiv.org/abs/2310.14162v1
- Date: Sun, 22 Oct 2023 03:24:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 01:33:22.528655
- Title: Augmenting End-to-End Steering Angle Prediction with CAN Bus Data
- Title(参考訳): CANバスデータによるエンドツーエンドのステアリング角度予測の強化
- Authors: Rohan Gupta
- Abstract要約: 車両のCANバスデータと映像データとを融合させてコンピュータビジョンモデルの精度を向上させる。
CANバスデータを使わずにモデルをトレーニングしたとき,CANバスデータでトレーニングしたモデルは0.02492のRMSEを得たが,CANバスデータでトレーニングしたモデルは0.01970のRMSEを得た。
この結果は、CANバスデータをビデオデータと融合することで、コンピュータビジョンモデルの予測誤差を20%削減し、一部のモデルではエラーを80%削減できることを示している。
- 参考スコア(独自算出の注目度): 0.15540058359482856
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: In recent years, end to end steering prediction for autonomous vehicles has
become a major area of research. The primary method for achieving end to end
steering was to use computer vision models on a live feed of video data.
However, to further increase accuracy, many companies have added data from
light detection and ranging (LiDAR) and or radar sensors through sensor fusion.
However, the addition of lasers and sensors comes at a high financial cost. In
this paper, I address both of these issues by increasing the accuracy of the
computer vision models without the increased cost of using LiDAR and or
sensors. I achieved this by improving the accuracy of computer vision models by
sensor fusing CAN bus data, a vehicle protocol, with video data. CAN bus data
is a rich source of information about the vehicle's state, including its speed,
steering angle, and acceleration. By fusing this data with video data, the
accuracy of the computer vision model's predictions can be improved. When I
trained the model without CAN bus data, I obtained an RMSE of 0.02492, while
the model trained with the CAN bus data achieved an RMSE of 0.01970. This
finding indicates that fusing CAN Bus data with video data can reduce the
computer vision model's prediction error by 20% with some models decreasing the
error by 80%.
- Abstract(参考訳): 近年、自動運転車のエンド・ツー・エンドの操舵予測が主要な研究分野となっている。
エンド・ツー・エンドのステアリングを達成するための主要な方法は、ビデオデータのライブフィードにコンピュータビジョンモデルを使用することであった。
しかし、精度をさらに高めるために、多くの企業がセンサー融合による光検出・測位(lidar)やレーダーセンサーからのデータを追加している。
しかし、レーザーとセンサーの追加は高い財政的コストを伴っている。
本稿では,LiDARやセンサの使用コストを増大させることなく,コンピュータビジョンモデルの精度を高めることにより,これらの課題に対処する。
ビデオデータと車両プロトコルであるcanバスデータを用いて,コンピュータビジョンモデルの精度を向上させることで,これを実現した。
CANバスデータは、速度、操舵角度、加速度など、車両の状態に関する情報の豊富な情報源である。
このデータをビデオデータと融合することにより、コンピュータビジョンモデルの予測精度を向上させることができる。
CANバスデータを使わずにモデルをトレーニングしたとき,CANバスデータを用いてトレーニングしたモデルは0.02492のRMSEを得た。
この結果は、CANバスデータをビデオデータと融合することで、コンピュータビジョンモデルの予測誤差を20%削減し、一部のモデルではエラーを80%削減できることを示している。
関連論文リスト
- Digital twins to alleviate the need for real field data in vision-based vehicle speed detection systems [0.9899633398596672]
正確な視覚に基づく速度推定は、レーダーやLiDARに基づく従来の手法よりもコスト効率が高い。
ディープラーニングのアプローチは、利用可能なデータがないため、このコンテキストでは極めて限定的です。
本研究では,CARLAシミュレータを用いたデジタルツインを用いて,特定の実世界のカメラの大規模なデータセットを生成することを提案する。
論文 参考訳(メタデータ) (2024-07-11T10:41:20Z) - G-MEMP: Gaze-Enhanced Multimodal Ego-Motion Prediction in Driving [71.9040410238973]
我々は、視線データを用いて、運転者の車両のエゴ軌道を推定することに集中する。
次に、GPSとビデオ入力と視線データを組み合わせた新しいマルチモーダルエゴ軌道予測ネットワークであるG-MEMPを開発する。
その結果,G-MEMPは両ベンチマークにおいて最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-12-13T23:06:30Z) - Inverting the Fundamental Diagram and Forecasting Boundary Conditions:
How Machine Learning Can Improve Macroscopic Models for Traffic Flow [0.0]
高速道路を走行する車両のフラックスと速度のデータを,固定センサで収集し,車線および車種別に分類したデータセットについて検討する。
1) 渋滞がセンサの下に現れる場合, 2) 今後センサの下に通過する車両の総量を推定する。
これらの情報片は、センサ間のトラフィックフローのダイナミクスを記述したLWRベースの1次1次マルチクラスモデルの精度を向上させるために使用される。
論文 参考訳(メタデータ) (2023-03-21T11:07:19Z) - WatchPed: Pedestrian Crossing Intention Prediction Using Embedded
Sensors of Smartwatch [11.83842808044211]
我々は、モーションセンサデータの統合に基づいて、最初の歩行者意図予測モデルを設計、実装、評価する。
モーションセンサデータを効果的に活用するために,新しい機械学習アーキテクチャを提案する。
本稿では,時間同期型モーションセンサデータと統合した最初の歩行者意図予測データセットを提案する。
論文 参考訳(メタデータ) (2022-08-15T21:27:21Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - SODA10M: Towards Large-Scale Object Detection Benchmark for Autonomous
Driving [94.11868795445798]
我々は,SODA10Mという名の自律走行用大規模物体検出ベンチマークをリリースし,1000万枚の未ラベル画像と6つの代表対象カテゴリをラベル付けした20K画像を含む。
多様性を向上させるために、画像は32の異なる都市で、1フレームあたり10秒毎に異なる気象条件、期間、場所のシーンで収集される。
我々は、既存の教師付き最先端検出モデル、一般的な自己監督型および半教師付きアプローチ、および将来のモデルの開発方法に関するいくつかの知見について、広範な実験と詳細な分析を行った。
論文 参考訳(メタデータ) (2021-06-21T13:55:57Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - Efficient and Robust LiDAR-Based End-to-End Navigation [132.52661670308606]
我々は,LiDARをベースとした効率的なエンドツーエンドナビゲーションフレームワークを提案する。
本稿では,スパース畳み込みカーネル最適化とハードウェア対応モデル設計に基づくFast-LiDARNetを提案する。
次に,単一の前方通過のみから予測の不確かさを直接推定するハイブリッド・エビデンシャル・フュージョンを提案する。
論文 参考訳(メタデータ) (2021-05-20T17:52:37Z) - High-Precision Digital Traffic Recording with Multi-LiDAR Infrastructure
Sensor Setups [0.0]
融解したLiDAR点雲と単一LiDAR点雲との差について検討した。
抽出した軌道の評価は, 融合インフラストラクチャーアプローチが追跡結果を著しく増加させ, 数cm以内の精度に達することを示す。
論文 参考訳(メタデータ) (2020-06-22T10:57:52Z) - PnPNet: End-to-End Perception and Prediction with Tracking in the Loop [82.97006521937101]
我々は、自動運転車の文脈において、共同認識と運動予測の問題に取り組む。
我々は,入力センサデータとしてエンド・ツー・エンドのモデルであるNetを提案し,各ステップのオブジェクト追跡とその将来レベルを出力する。
論文 参考訳(メタデータ) (2020-05-29T17:57:25Z) - GISNet: Graph-Based Information Sharing Network For Vehicle Trajectory
Prediction [6.12727713172576]
Google、Uber、DiDiなどのAI指向企業は、より正確な車両軌道予測アルゴリズムを調査している。
本稿では,対象車両とその周辺車両間の情報共有を可能にする新しいグラフベース情報共有ネットワーク(GISNet)を提案する。
論文 参考訳(メタデータ) (2020-03-22T03:24:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。