論文の概要: Visual Perception System for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2303.02257v2
- Date: Tue, 31 Oct 2023 22:50:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-02 18:09:10.835124
- Title: Visual Perception System for Autonomous Driving
- Title(参考訳): 自律運転のための視覚知覚システム
- Authors: Qi Zhang, Siyuan Gou, Wenbin Li
- Abstract要約: 本研究は、走行物体の軌跡追跡と予測を統合して衝突を防止する、自律走行のための視覚的認識システムを導入する。
このシステムは歩行者の動きの手がかりを利用して、その動きを監視し、予測し、同時に環境をマッピングする。
このアプローチの性能、効率、レジリエンスは、シミュレーションと実世界の両方のデータセットの包括的な評価によって実証される。
- 参考スコア(独自算出の注目度): 9.659835301514288
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recent surge in interest in autonomous driving stems from its rapidly
developing capacity to enhance safety, efficiency, and convenience. A pivotal
aspect of autonomous driving technology is its perceptual systems, where core
algorithms have yielded more precise algorithms applicable to autonomous
driving, including vision-based Simultaneous Localization and Mapping (SLAMs),
object detection, and tracking algorithms. This work introduces a visual-based
perception system for autonomous driving that integrates trajectory tracking
and prediction of moving objects to prevent collisions, while addressing
autonomous driving's localization and mapping requirements. The system
leverages motion cues from pedestrians to monitor and forecast their movements
and simultaneously maps the environment. This integrated approach resolves
camera localization and the tracking of other moving objects in the scene,
subsequently generating a sparse map to facilitate vehicle navigation. The
performance, efficiency, and resilience of this approach are substantiated
through comprehensive evaluations of both simulated and real-world datasets.
- Abstract(参考訳): 最近の自動運転への関心の高まりは、安全性、効率性、利便性を高めるために急速に発展している能力に起因する。
自律運転技術の重要な側面は、その知覚システムであり、コアアルゴリズムは、視覚ベースの同時局在マッピング(SLAM)、オブジェクト検出、追跡アルゴリズムを含む、より正確なアルゴリズムを自律運転に適用している。
本研究は,自律運転者の位置認識とマッピング要件に対処しつつ,移動物体の軌跡追跡と予測を統合して衝突を防止する,自律運転のための視覚ベースの知覚システムを提案する。
このシステムは歩行者の動きをモニターし、その動きを予測し、同時に環境をマップする。
この統合アプローチは、シーン内の他の移動物体のカメラのローカライズと追跡を解決し、車両のナビゲーションを容易にするためにスパースマップを生成する。
このアプローチの性能、効率、レジリエンスは、シミュレーションと実世界の両方のデータセットの包括的な評価によって実証される。
関連論文リスト
- Advancing Autonomous Driving Perception: Analysis of Sensor Fusion and Computer Vision Techniques [0.0]
このプロジェクトは、自動運転ロボットの理解とナビゲーション能力の向上に焦点を当てている。
既存の検出と追跡アルゴリズムを用いて、未知のマップ2Dマップへのより良いナビゲーションを実現する方法について検討する。
論文 参考訳(メタデータ) (2024-11-15T19:11:58Z) - 3D Object Visibility Prediction in Autonomous Driving [6.802572869909114]
本稿では,新しい属性とその対応するアルゴリズムである3Dオブジェクトの可視性について述べる。
この属性の提案とその計算戦略は、下流タスクの能力を拡大することを目的としている。
論文 参考訳(メタデータ) (2024-03-06T13:07:42Z) - Implicit Occupancy Flow Fields for Perception and Prediction in
Self-Driving [68.95178518732965]
自動運転車(SDV)は、周囲を認識でき、他の交通参加者の将来の行動を予測できなければならない。
既存の作業は、検出されたオブジェクトの軌跡が続くオブジェクト検出を実行するか、シーン全体の密度の高い占有とフローグリッドを予測するかのいずれかである。
これは、認識と将来の予測に対する統一されたアプローチを動機付け、単一のニューラルネットワークで時間とともに占有とフローを暗黙的に表現します。
論文 参考訳(メタデータ) (2023-08-02T23:39:24Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - TrafficBots: Towards World Models for Autonomous Driving Simulation and
Motion Prediction [149.5716746789134]
我々は,データ駆動型交通シミュレーションを世界モデルとして定式化できることを示した。
動作予測とエンドツーエンドの運転に基づくマルチエージェントポリシーであるTrafficBotsを紹介する。
オープンモーションデータセットの実験は、TrafficBotsが現実的なマルチエージェント動作をシミュレートできることを示している。
論文 参考訳(メタデータ) (2023-03-07T18:28:41Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - Tackling Real-World Autonomous Driving using Deep Reinforcement Learning [63.3756530844707]
本研究では,加速と操舵角度を予測するニューラルネットワークを学習するモデルレスディープ強化学習プランナを提案する。
実際の自動運転車にシステムをデプロイするために、我々は小さなニューラルネットワークで表されるモジュールも開発する。
論文 参考訳(メタデータ) (2022-07-05T16:33:20Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - LiveMap: Real-Time Dynamic Map in Automotive Edge Computing [14.195521569220448]
LiveMapは、接続された車両のデータをサブ秒でクラウドソーシングし、道路上のオブジェクトを検出し、一致させ、追跡するリアルタイムダイナミックマップです。
車両の計算を適応的にオフロードできるlivemapの制御プレーンを開発した。
小型テストベッド上でLiveMapを実装し,大規模ネットワークシミュレータを開発した。
論文 参考訳(メタデータ) (2020-12-16T15:00:49Z) - Artificial Intelligence Enabled Traffic Monitoring System [3.085453921856008]
本稿では,深層畳み込みニューラルネットワークを用いたリアルタイム交通映像の自動監視手法を提案する。
提案システムは、さまざまなトラフィック監視ニーズを自動化するために、最先端のディープラーニングアルゴリズムをデプロイする。
論文 参考訳(メタデータ) (2020-10-02T22:28:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。