論文の概要: BEVSeg2TP: Surround View Camera Bird's-Eye-View Based Joint Vehicle
Segmentation and Ego Vehicle Trajectory Prediction
- arxiv url: http://arxiv.org/abs/2312.13081v1
- Date: Wed, 20 Dec 2023 15:02:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-21 15:15:20.229427
- Title: BEVSeg2TP: Surround View Camera Bird's-Eye-View Based Joint Vehicle
Segmentation and Ego Vehicle Trajectory Prediction
- Title(参考訳): BEVSeg2TP:Sarround View Camera Bird's-Eye-View based Joint Vehicle Segmentation and Ego Vehicle Trajectory Prediction
- Authors: Sushil Sharma, Arindam Das, Ganesh Sistu, Mark Halton, Ciar\'an Eising
- Abstract要約: 軌道予測は自動車の自律性にとって重要な課題である。
学習に基づく軌道予測への関心が高まっている。
認識能力を向上させる可能性があることが示される。
- 参考スコア(独自算出の注目度): 4.328789276903559
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Trajectory prediction is, naturally, a key task for vehicle autonomy. While
the number of traffic rules is limited, the combinations and uncertainties
associated with each agent's behaviour in real-world scenarios are nearly
impossible to encode. Consequently, there is a growing interest in
learning-based trajectory prediction. The proposed method in this paper
predicts trajectories by considering perception and trajectory prediction as a
unified system. In considering them as unified tasks, we show that there is the
potential to improve the performance of perception. To achieve these goals, we
present BEVSeg2TP - a surround-view camera bird's-eye-view-based joint vehicle
segmentation and ego vehicle trajectory prediction system for autonomous
vehicles. The proposed system uses a network trained on multiple camera views.
The images are transformed using several deep learning techniques to perform
semantic segmentation of objects, including other vehicles, in the scene. The
segmentation outputs are fused across the camera views to obtain a
comprehensive representation of the surrounding vehicles from the
bird's-eye-view perspective. The system further predicts the future trajectory
of the ego vehicle using a spatiotemporal probabilistic network (STPN) to
optimize trajectory prediction. This network leverages information from
encoder-decoder transformers and joint vehicle segmentation.
- Abstract(参考訳): 軌道予測は当然、自動車の自律性にとって重要なタスクである。
トラフィックルールの数は限られているが、現実のシナリオにおける各エージェントの振る舞いに関連する組み合わせや不確実性はほとんどエンコードできない。
その結果,学習に基づく軌道予測への関心が高まっている。
提案手法は, 知覚と軌道予測を統一システムとして考慮し, 軌跡予測を行う。
これらを統一的なタスクとして考えることで,知覚の性能を向上させる可能性を示す。
これらの目的を達成するために, BEVSeg2TP - 自律走行車用サラウンドビューカメラバードアイビューベースジョイントカーセグメンテーションとエゴカー軌道予測システムを提案する。
提案システムは、複数のカメラビューでトレーニングされたネットワークを使用する。
画像は、いくつかのディープラーニング技術を使用して変換され、シーン内の他の車両を含むオブジェクトのセマンティックセグメンテーションを実行する。
セグメンテーション出力はカメラビュー全体で融合され、鳥の目から見た周囲の車両の包括的表現が得られる。
さらに、時空間確率ネットワーク(STPN)を用いて、エゴ車両の将来軌道を予測し、軌道予測を最適化する。
このネットワークはエンコーダ・デコーダトランスフォーマとジョイント車両セグメンテーションからの情報を活用している。
関連論文リスト
- PIP-Net: Pedestrian Intention Prediction in the Wild [11.799731429829603]
PIP-Netは、現実の都市シナリオにおいて、AVによる歩行者横断意図を予測するために設計された新しいフレームワークである。
我々は、異なるカメラマウントとセットアップ用に設計された2種類のPIP-Netを提供する。
提案モデルでは、繰り返し時間的注意に基づく解を用いて、最先端の性能を向上する。
最初に、カスタマイズされた歩行者意図予測データセットであるUrban-PIPデータセットを提示する。
論文 参考訳(メタデータ) (2024-02-20T08:28:45Z) - Implicit Occupancy Flow Fields for Perception and Prediction in
Self-Driving [68.95178518732965]
自動運転車(SDV)は、周囲を認識でき、他の交通参加者の将来の行動を予測できなければならない。
既存の作業は、検出されたオブジェクトの軌跡が続くオブジェクト検出を実行するか、シーン全体の密度の高い占有とフローグリッドを予測するかのいずれかである。
これは、認識と将来の予測に対する統一されたアプローチを動機付け、単一のニューラルネットワークで時間とともに占有とフローを暗黙的に表現します。
論文 参考訳(メタデータ) (2023-08-02T23:39:24Z) - Street-View Image Generation from a Bird's-Eye View Layout [95.36869800896335]
近年,Bird's-Eye View (BEV) の知覚が注目されている。
自動運転のためのデータ駆動シミュレーションは、最近の研究の焦点となっている。
本稿では,現実的かつ空間的に一貫した周辺画像を合成する条件生成モデルであるBEVGenを提案する。
論文 参考訳(メタデータ) (2023-01-11T18:39:34Z) - Multi-Vehicle Trajectory Prediction at Intersections using State and
Intention Information [50.40632021583213]
道路員の将来の軌跡予測への伝統的なアプローチは、過去の軌跡を知ることに依存している。
この研究は、交差点で複数の車両の予測を行うために、現在の状態と意図された方向を知ることに依存する。
この情報を車両間で送るメッセージは、それぞれがより総合的な環境概要を提供する。
論文 参考訳(メタデータ) (2023-01-06T15:13:23Z) - Policy Pre-training for End-to-end Autonomous Driving via
Self-supervised Geometric Modeling [96.31941517446859]
PPGeo (Policy Pre-training via Geometric Modeling) は,視覚運動運転における政策事前学習のための,直感的かつ直接的な完全自己教師型フレームワークである。
本研究では,大規模な未ラベル・未校正動画の3次元幾何学シーンをモデル化することにより,ポリシー表現を強力な抽象化として学習することを目的とする。
第1段階では、幾何モデリングフレームワークは、2つの連続したフレームを入力として、ポーズと深さの予測を同時に生成する。
第2段階では、視覚エンコーダは、将来のエゴモーションを予測し、現在の視覚観察のみに基づいて測光誤差を最適化することにより、運転方針表現を学習する。
論文 参考訳(メタデータ) (2023-01-03T08:52:49Z) - Monocular BEV Perception of Road Scenes via Front-to-Top View Projection [57.19891435386843]
本稿では,鳥の目視で道路配置と車両占有率によって形成された局所地図を再構築する新しい枠組みを提案する。
我々のモデルは1つのGPU上で25FPSで動作し、リアルタイムパノラマHDマップの再構築に有効である。
論文 参考訳(メタデータ) (2022-11-15T13:52:41Z) - RSG-Net: Towards Rich Sematic Relationship Prediction for Intelligent
Vehicle in Complex Environments [72.04891523115535]
本稿では,オブジェクトの提案から潜在的意味関係を予測するグラフ畳み込みネットワークRSG-Netを提案する。
実験の結果、このネットワークはロードシーングラフデータセットに基づいてトレーニングされており、エゴ車両周辺のオブジェクト間の潜在的な意味関係を効率的に予測できることがわかった。
論文 参考訳(メタデータ) (2022-07-16T12:40:17Z) - Vehicle Trajectory Prediction on Highways Using Bird Eye View
Representations and Deep Learning [0.5420492913071214]
本研究では,効率的な鳥の視線表示と畳み込みニューラルネットワークを用いた高速道路シナリオにおける車両軌跡の予測手法を提案する。
U-netモデルは予測カーネルとして選択され、画像から画像への回帰アプローチを用いてシーンの将来の視覚表現を生成する。
生成したグラフィカル表現から車の位置を抽出してサブピクセル解像度を実現する手法が実装されている。
論文 参考訳(メタデータ) (2022-07-04T13:39:46Z) - Vehicle Trajectory Prediction in Crowded Highway Scenarios Using Bird
Eye View Representations and CNNs [0.0]
本稿では,図形表現を用いた車両軌道予測の新しい手法について述べる。
この問題は、交通参加者間の基盤となる関係を学習するためにネットワークを訓練する画像回帰問題である。
このモデルは2つの反対の交通流で同時に30台以上の車両で高速道路のシナリオでテストされている。
論文 参考訳(メタデータ) (2020-08-26T11:15:49Z) - Two-Stream Networks for Lane-Change Prediction of Surrounding Vehicles [8.828423067460644]
高速道路のシナリオでは、人間のドライバーは視覚的手がかりのみを使用して車両を取り巻く早期の切り込みと切り抜きの操作を予想する。
周囲車両の車線変化認識と予測に対処するため,ビデオカメラからの視覚的手がかりを積み重ねることで,行動認識・予測問題としてこの問題を提起する。
2ストリーム畳み込みネットワークと乗算器ネットワークという2つのビデオアクション認識アプローチが分析されている。
論文 参考訳(メタデータ) (2020-08-25T07:59:15Z) - PLOP: Probabilistic poLynomial Objects trajectory Planning for
autonomous driving [8.105493956485583]
条件付き模倣学習アルゴリズムを用いて,エゴ車とその周辺地域の軌道を推定する。
私たちのアプローチは計算効率が高く、オンボードセンサーのみに依存します。
公開データセットnuScenesでオフラインで評価する。
論文 参考訳(メタデータ) (2020-03-09T16:55:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。