論文の概要: Safety-aware Motion Prediction with Unseen Vehicles for Autonomous
Driving
- arxiv url: http://arxiv.org/abs/2109.01510v1
- Date: Fri, 3 Sep 2021 13:33:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-06 16:58:59.197803
- Title: Safety-aware Motion Prediction with Unseen Vehicles for Autonomous
Driving
- Title(参考訳): 無人走行車による安全対応運動予測
- Authors: Xuanchi Ren, Tao Yang, Li Erran Li, Alexandre Alahi, Qifeng Chen
- Abstract要約: 本研究では,無人運転用無人車を用いた新しい作業,安全を意識した動作予測手法について検討する。
既存の車両の軌道予測タスクとは異なり、占有率マップの予測が目的である。
私たちのアプローチは、ほとんどの場合、目に見えない車両の存在を予測できる最初の方法です。
- 参考スコア(独自算出の注目度): 104.32241082170044
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Motion prediction of vehicles is critical but challenging due to the
uncertainties in complex environments and the limited visibility caused by
occlusions and limited sensor ranges. In this paper, we study a new task,
safety-aware motion prediction with unseen vehicles for autonomous driving.
Unlike the existing trajectory prediction task for seen vehicles, we aim at
predicting an occupancy map that indicates the earliest time when each location
can be occupied by either seen and unseen vehicles. The ability to predict
unseen vehicles is critical for safety in autonomous driving. To tackle this
challenging task, we propose a safety-aware deep learning model with three new
loss functions to predict the earliest occupancy map. Experiments on the
large-scale autonomous driving nuScenes dataset show that our proposed model
significantly outperforms the state-of-the-art baselines on the safety-aware
motion prediction task. To the best of our knowledge, our approach is the first
one that can predict the existence of unseen vehicles in most cases. Project
page at {\url{https://github.com/xrenaa/Safety-Aware-Motion-Prediction}}.
- Abstract(参考訳): 車両の動作予測は極めて重要であるが、複雑な環境における不確実性や、閉塞による視認性の制限、センサー範囲の制限などにより困難である。
本稿では,自律運転用無人車を用いた安全対応動作予測の新しい課題について検討する。
既存の車両の軌道予測タスクとは違って,各位置を視認できない車両で占有できる最も早い時刻を示す占有率マップの予測が目的である。
未発見の車両を予測できる能力は、自動運転の安全性に欠かせない。
この課題に対処するために,3つの新たな損失関数を持つ安全性を考慮した深層学習モデルを提案する。
大規模自動運転nuscenesデータセットにおける実験により,提案モデルが安全認識運動予測タスクの最先端ベースラインを著しく上回っていることが示された。
私たちの知る限りでは、私たちのアプローチは、ほとんどのケースで目に見えない車両の存在を予測できる最初の方法です。
Project page at {\url{https://github.com/xrenaa/Safety-Aware-Motion-Prediction}}
関連論文リスト
- Pedestrian motion prediction evaluation for urban autonomous driving [0.0]
我々は、従来の動き予測指標の妥当性を決定するために、提供されたオープンソースソリューションを用いて、選択した出版物を解析する。
この視点は、既存の最先端の歩行者運動予測問題の現実的なパフォーマンスを探している、自動運転やロボット工学の潜在的なエンジニアにとって価値があるだろう。
論文 参考訳(メタデータ) (2024-10-22T10:06:50Z) - Implicit Occupancy Flow Fields for Perception and Prediction in
Self-Driving [68.95178518732965]
自動運転車(SDV)は、周囲を認識でき、他の交通参加者の将来の行動を予測できなければならない。
既存の作業は、検出されたオブジェクトの軌跡が続くオブジェクト検出を実行するか、シーン全体の密度の高い占有とフローグリッドを予測するかのいずれかである。
これは、認識と将来の予測に対する統一されたアプローチを動機付け、単一のニューラルネットワークで時間とともに占有とフローを暗黙的に表現します。
論文 参考訳(メタデータ) (2023-08-02T23:39:24Z) - Self-Aware Trajectory Prediction for Safe Autonomous Driving [9.868681330733764]
軌道予測は、自動運転ソフトウェアスタックの重要なコンポーネントの1つである。
本稿では,自己認識軌道予測手法を提案する。
提案手法は, 自己認識, メモリフットプリント, リアルタイム性能で良好に動作した。
論文 参考訳(メタデータ) (2023-05-16T03:53:23Z) - DeepAccident: A Motion and Accident Prediction Benchmark for V2X
Autonomous Driving [76.29141888408265]
本研究では,現実の運転において頻繁に発生する多様な事故シナリオを含む大規模データセットを提案する。
提案したDeepAccidentデータセットには57Kの注釈付きフレームと285Kの注釈付きサンプルが含まれており、これは大規模なnuScenesデータセットの約7倍である。
論文 参考訳(メタデータ) (2023-04-03T17:37:00Z) - Trajectory-Prediction with Vision: A Survey [0.0]
軌道予測は極めて困難な課題であり、最近自動運転車研究コミュニティで注目を集めている。
優れた予測モデルでは、道路上の衝突を防止でき、従って自動運転車の最終的な目標である衝突速度は、数百万マイル毎の衝突である。
我々は,関連アルゴリズムを異なるクラスに分類し,軌道予測研究分野のトレンドを追究する。
論文 参考訳(メタデータ) (2023-03-15T01:06:54Z) - Estimating Uncertainty For Vehicle Motion Prediction on Yandex Shifts
Dataset [0.0]
この研究は、分布シフトに頑健で、予測の不確実性を測定することのできるモデルの開発に焦点を当てている。
この作業では、ベンチマークを著しく改善し、リーダーボードで2位になったアプローチを提示します。
論文 参考訳(メタデータ) (2021-12-15T18:58:55Z) - Vehicle trajectory prediction in top-view image sequences based on deep
learning method [1.181206257787103]
周囲の車両の動きを推定し予測することは、自動車両と高度な安全システムにとって不可欠である。
道路の空中画像から得られた画像から学習した計算複雑性の低いモデルを提案する。
提案モデルでは, 対象車両とその周辺車両の移動履歴に関する画像を見るだけで, 自動車の将来の進路を予測できる。
論文 参考訳(メタデータ) (2021-02-02T20:48:19Z) - Driver Intention Anticipation Based on In-Cabin and Driving Scene
Monitoring [52.557003792696484]
本稿では,車内映像と交通シーン映像の両方に基づいて運転者の意図を検出する枠組みを提案する。
本フレームワークは,83.98%,F1スコア84.3%の精度で予測を行う。
論文 参考訳(メタデータ) (2020-06-20T11:56:32Z) - The Importance of Prior Knowledge in Precise Multimodal Prediction [71.74884391209955]
道路にはよく定義された地形、地形、交通規則がある。
本稿では,構造的事前を損失関数として組み込むことを提案する。
実世界の自動運転データセットにおけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-06-04T03:56:11Z) - PiP: Planning-informed Trajectory Prediction for Autonomous Driving [69.41885900996589]
マルチエージェント設定における予測問題に対処するために,計画インフォームド・トラジェクトリ予測(PiP)を提案する。
本手法は,エゴカーの計画により予測過程を通知することにより,高速道路のデータセット上でのマルチエージェント予測の最先端性能を実現する。
論文 参考訳(メタデータ) (2020-03-25T16:09:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。