論文の概要: Automated Lane Change Behavior Prediction and Environmental Perception Based on SLAM Technology
- arxiv url: http://arxiv.org/abs/2404.04492v1
- Date: Sat, 6 Apr 2024 03:48:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-09 20:58:47.872599
- Title: Automated Lane Change Behavior Prediction and Environmental Perception Based on SLAM Technology
- Title(参考訳): SLAM技術に基づく車線変化予測と環境認識
- Authors: Han Lei, Baoming Wang, Zuwei Shui, Peiyuan Yang, Penghao Liang,
- Abstract要約: 本稿では,自動車線変更行動予測と環境認識の文脈におけるSLAM技術の適用について検討する。
TeslaやMobileyeといった企業の実例では、自律運転システムにおけるAI駆動技術、センサー融合、SLAMの統合が紹介されている。
この論文は、自動運転車の正確な環境認識、位置決め、意思決定を可能にするSLAMの重要な役割を強調した。
- 参考スコア(独自算出の注目度): 1.9223856107206057
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In addition to environmental perception sensors such as cameras, radars, etc. in the automatic driving system, the external environment of the vehicle is perceived, in fact, there is also a perception sensor that has been silently dedicated in the system, that is, the positioning module. This paper explores the application of SLAM (Simultaneous Localization and Mapping) technology in the context of automatic lane change behavior prediction and environment perception for autonomous vehicles. It discusses the limitations of traditional positioning methods, introduces SLAM technology, and compares LIDAR SLAM with visual SLAM. Real-world examples from companies like Tesla, Waymo, and Mobileye showcase the integration of AI-driven technologies, sensor fusion, and SLAM in autonomous driving systems. The paper then delves into the specifics of SLAM algorithms, sensor technologies, and the importance of automatic lane changes in driving safety and efficiency. It highlights Tesla's recent update to its Autopilot system, which incorporates automatic lane change functionality using SLAM technology. The paper concludes by emphasizing the crucial role of SLAM in enabling accurate environment perception, positioning, and decision-making for autonomous vehicles, ultimately enhancing safety and driving experience.
- Abstract(参考訳): 自動走行システムにおけるカメラ、レーダー等の環境認識センサに加えて、車両の外部環境も認識され、実際にはシステム、すなわち位置決めモジュールに静かに集中した知覚センサも存在する。
本稿では,自動車線変更行動予測と環境認識の文脈におけるSLAM(Simultaneous Localization and Mapping)技術の適用について検討する。
従来の位置決め手法の限界について議論し、SLAM技術を導入し、LIDAR SLAMと視覚SLAMを比較した。
Tesla、Waymo、Mobileyeといった企業の実例では、自律運転システムにおけるAI駆動技術、センサー融合、SLAMの統合が紹介されている。
次に、SLAMアルゴリズム、センサー技術、および運転安全性と効率性における自動車線変更の重要性について検討した。
SLAM技術を使用した自動車線変更機能を組み込んだ、TeslaのAutopilotシステムのアップデートを強調している。
この論文は、自動運転車の正確な環境認識、位置決め、意思決定を可能にすることにおけるSLAMの重要な役割を強調し、究極的には安全性と運転経験を高めている。
関連論文リスト
- Applications of Computer Vision in Autonomous Vehicles: Methods, Challenges and Future Directions [2.693342141713236]
本稿では,過去10年間に出版されたコンピュータビジョンと自動運転に関する論文をレビューする。
特に、まず自律運転システムの開発について検討し、各国の主要自動車メーカーによって開発されたこれらのシステムを要約する。
そこで, 深度推定, 物体検出, 車線検出, 信号認識など, 自律運転におけるコンピュータビジョン応用の概要を概観する。
論文 参考訳(メタデータ) (2023-11-15T16:41:18Z) - LLM4Drive: A Survey of Large Language Models for Autonomous Driving [62.10344445241105]
大規模言語モデル(LLM)は、文脈理解、論理的推論、回答生成などの能力を示した。
本稿では,自動走行のための大規模言語モデル (LLM4AD) に関する研究ラインを体系的にレビューする。
論文 参考訳(メタデータ) (2023-11-02T07:23:33Z) - Data and Knowledge for Overtaking Scenarios in Autonomous Driving [0.0]
オーバーテイク・エクササイズは、運転において最も重要な行動の1つである。
文献で利用できる作業量にもかかわらず、ほんの少しの操作しか処理できない。
この研究は、この領域に寄与し、新たな合成データセットを提示する。
論文 参考訳(メタデータ) (2023-05-30T21:27:05Z) - A Survey on Approximate Edge AI for Energy Efficient Autonomous Driving
Services [1.7794836351354006]
この調査は、接続された車両アプリケーション、車両通信、近似、エッジAI技術についてレビューし、比較する。
その焦点は、新しく提案された近似をカバーし、フレームワークを有効にすることでエネルギー効率を向上させることである。
この調査から得られた洞察とビジョンは、低消費電力およびメモリ制限されたシステム上での協調運転サービス開発に有用である。
論文 参考訳(メタデータ) (2023-04-13T15:41:42Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - Tackling Real-World Autonomous Driving using Deep Reinforcement Learning [63.3756530844707]
本研究では,加速と操舵角度を予測するニューラルネットワークを学習するモデルレスディープ強化学習プランナを提案する。
実際の自動運転車にシステムをデプロイするために、我々は小さなニューラルネットワークで表されるモジュールも開発する。
論文 参考訳(メタデータ) (2022-07-05T16:33:20Z) - Learning energy-efficient driving behaviors by imitating experts [75.12960180185105]
本稿では,コミュニケーション・センシングにおける制御戦略と現実的限界のギャップを埋める上で,模倣学習が果たす役割について考察する。
擬似学習は、車両の5%に採用されれば、局地的な観測のみを用いて、交通条件の異なるネットワークのエネルギー効率を15%向上させる政策を導出できることを示す。
論文 参考訳(メタデータ) (2022-06-28T17:08:31Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - Sensor Data Validation and Driving Safety in Autonomous Driving Systems [0.9137554315375922]
先進的なセンサーとディープラーニングモデルは、最近発明された攻撃方法の傾向がある。
本稿では,車載センサの攻撃に対する検出方法と,攻撃されたディープラーニングモデルと自動運転車の運転安全性の関連性について検討する。
論文 参考訳(メタデータ) (2022-03-30T08:17:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。