論文の概要: ReasonNet: End-to-End Driving with Temporal and Global Reasoning
- arxiv url: http://arxiv.org/abs/2305.10507v1
- Date: Wed, 17 May 2023 18:24:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-19 18:30:05.946488
- Title: ReasonNet: End-to-End Driving with Temporal and Global Reasoning
- Title(参考訳): ReasonNet: 時間とグローバルな推論によるエンドツーエンドの運転
- Authors: Hao Shao, Letian Wang, Ruobing Chen, Steven L. Waslander, Hongsheng
Li, Yu Liu
- Abstract要約: ReasonNetは、運転シーンの時間的情報と世界的情報の両方を広範囲に活用する、新しいエンドツーエンド駆動フレームワークである。
本手法は,異なるフレームにおける特徴間の相互作用や関係を効果的に処理できる。
シーンのグローバルな情報に関する推論は、全体の知覚性能を向上させることもできる。
- 参考スコア(独自算出の注目度): 31.319673950804972
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The large-scale deployment of autonomous vehicles is yet to come, and one of
the major remaining challenges lies in urban dense traffic scenarios. In such
cases, it remains challenging to predict the future evolution of the scene and
future behaviors of objects, and to deal with rare adverse events such as the
sudden appearance of occluded objects. In this paper, we present ReasonNet, a
novel end-to-end driving framework that extensively exploits both temporal and
global information of the driving scene. By reasoning on the temporal behavior
of objects, our method can effectively process the interactions and
relationships among features in different frames. Reasoning about the global
information of the scene can also improve overall perception performance and
benefit the detection of adverse events, especially the anticipation of
potential danger from occluded objects. For comprehensive evaluation on
occlusion events, we also release publicly a driving simulation benchmark
DriveOcclusionSim consisting of diverse occlusion events. We conduct extensive
experiments on multiple CARLA benchmarks, where our model outperforms all prior
methods, ranking first on the sensor track of the public CARLA Leaderboard.
- Abstract(参考訳): 自動運転車の大規模展開はまだ先であり、大きな課題の1つは都市部の密集した交通シナリオにある。
このような場合、シーンの将来の進化やオブジェクトの将来の振る舞いを予測し、突然のオブジェクトの出現のような稀な有害事象に対処することは依然として困難である。
本稿では,運転シーンの時間的情報とグローバル情報の両方を広範囲に活用する新しいエンドツーエンド駆動フレームワークであるReasonNetを提案する。
オブジェクトの時間的挙動を推論することにより,異なるフレームの特徴間の相互作用や関係を効果的に処理することができる。
シーンのグローバルな情報に関する推論は、全体的な知覚性能を改善し、特に隠蔽対象からの潜在的な危険を予知する有害事象の検出に役立てることができる。
咬合イベントの包括的評価のために,様々な咬合イベントからなる運転シミュレーションベンチマークdriveocclusionsimを公開する。
我々は、複数のCARLAベンチマークで広範囲に実験を行い、我々のモデルは、CARLA Leaderboardのセンサートラックにランクインした。
関連論文リスト
- CRASH: Crash Recognition and Anticipation System Harnessing with Context-Aware and Temporal Focus Attentions [13.981748780317329]
カメラ映像から周囲の交通機関の事故を正確にかつ迅速に予測することは、自動運転車(AV)の安全性に不可欠である
本研究は, CRASH と呼ばれる, AV の新たな事故予測フレームワークを提案する。
オブジェクト検出、特徴抽出、オブジェクト認識モジュール、コンテキスト認識モジュール、多層融合の5つのコンポーネントをシームレスに統合する。
私たちのモデルは、平均精度(AP)や平均到達時間(mTTA)といった重要な評価指標において、既存のトップベースラインを超えています。
論文 参考訳(メタデータ) (2024-07-25T04:12:49Z) - QuAD: Query-based Interpretable Neural Motion Planning for Autonomous Driving [33.609780917199394]
自動運転車は環境を理解して適切な行動を決定する必要がある。
従来のシステムは、シーン内のエージェントを見つけるためにオブジェクト検出に依存していた。
我々は、最初に占有する時間的自律性を知覚するカスケードモジュールから遠ざかる、統一的で解釈可能で効率的な自律フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-01T21:11:43Z) - SAFE-SIM: Safety-Critical Closed-Loop Traffic Simulation with Diffusion-Controllable Adversaries [94.84458417662407]
制御可能なクローズドループ安全クリティカルシミュレーションフレームワークであるSAFE-SIMを紹介する。
提案手法は,1)現実の環境を深く反映した現実的な長距離安全クリティカルシナリオの生成,2)より包括的でインタラクティブな評価のための制御可能な敵行動の提供,の2つの利点をもたらす。
複数のプランナにまたがるnuScenesとnuPlanデータセットを使用して、我々のフレームワークを実証的に検証し、リアリズムと制御性の両方の改善を実証した。
論文 参考訳(メタデータ) (2023-12-31T04:14:43Z) - Implicit Occupancy Flow Fields for Perception and Prediction in
Self-Driving [68.95178518732965]
自動運転車(SDV)は、周囲を認識でき、他の交通参加者の将来の行動を予測できなければならない。
既存の作業は、検出されたオブジェクトの軌跡が続くオブジェクト検出を実行するか、シーン全体の密度の高い占有とフローグリッドを予測するかのいずれかである。
これは、認識と将来の予測に対する統一されたアプローチを動機付け、単一のニューラルネットワークで時間とともに占有とフローを暗黙的に表現します。
論文 参考訳(メタデータ) (2023-08-02T23:39:24Z) - Safety-aware Motion Prediction with Unseen Vehicles for Autonomous
Driving [104.32241082170044]
本研究では,無人運転用無人車を用いた新しい作業,安全を意識した動作予測手法について検討する。
既存の車両の軌道予測タスクとは異なり、占有率マップの予測が目的である。
私たちのアプローチは、ほとんどの場合、目に見えない車両の存在を予測できる最初の方法です。
論文 参考訳(メタデータ) (2021-09-03T13:33:33Z) - Deep Structured Reactive Planning [94.92994828905984]
自動運転のための新しいデータ駆動型リアクティブ計画目標を提案する。
本モデルは,非常に複雑な操作を成功させる上で,非反応性変種よりも優れることを示す。
論文 参考訳(メタデータ) (2021-01-18T01:43:36Z) - The Importance of Prior Knowledge in Precise Multimodal Prediction [71.74884391209955]
道路にはよく定義された地形、地形、交通規則がある。
本稿では,構造的事前を損失関数として組み込むことを提案する。
実世界の自動運転データセットにおけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-06-04T03:56:11Z) - PnPNet: End-to-End Perception and Prediction with Tracking in the Loop [82.97006521937101]
我々は、自動運転車の文脈において、共同認識と運動予測の問題に取り組む。
我々は,入力センサデータとしてエンド・ツー・エンドのモデルであるNetを提案し,各ステップのオブジェクト追跡とその将来レベルを出力する。
論文 参考訳(メタデータ) (2020-05-29T17:57:25Z) - Pedestrian Action Anticipation using Contextual Feature Fusion in
Stacked RNNs [19.13270454742958]
交差点における歩行者行動予測問題の解法を提案する。
提案手法では,シーン動的・視覚的特徴の両面から収集した情報を徐々にネットワークに融合する新しいRNNアーキテクチャを用いる。
論文 参考訳(メタデータ) (2020-05-13T20:59:37Z) - Probabilistic End-to-End Vehicle Navigation in Complex Dynamic
Environments with Multimodal Sensor Fusion [16.018962965273495]
全日と全天候のナビゲーションは、自動運転にとって重要な機能である。
本稿では,カメラ,ライダー,レーダからの情報を利用して,触覚能力を備えた確率的運転モデルを提案する。
その結果,提案モデルがベースラインを上回り,目に見えない環境での優れた一般化性能を実現することが示唆された。
論文 参考訳(メタデータ) (2020-05-05T03:48:10Z) - VTGNet: A Vision-based Trajectory Generation Network for Autonomous
Vehicles in Urban Environments [26.558394047144006]
模倣学習に基づく不確実性を考慮した終端軌道生成手法を開発した。
様々な気象条件や照明条件下では,ネットワークは異なる都市環境下で確実にトラジェクトリを生成することができる。
提案手法は,SOTA(State-of-the-art-to-end Control)よりもクロスシーン/プラットフォーム駆動性が向上する。
論文 参考訳(メタデータ) (2020-04-27T06:17:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。