論文の概要: MotionNet: Joint Perception and Motion Prediction for Autonomous Driving
Based on Bird's Eye View Maps
- arxiv url: http://arxiv.org/abs/2003.06754v1
- Date: Sun, 15 Mar 2020 04:37:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 08:45:19.793208
- Title: MotionNet: Joint Perception and Motion Prediction for Autonomous Driving
Based on Bird's Eye View Maps
- Title(参考訳): MotionNet:Bird's Eye View Mapsに基づく自律走行のための共同知覚と運動予測
- Authors: Pengxiang Wu, Siheng Chen, Dimitris Metaxas
- Abstract要約: 我々は,3次元点雲からの知覚と運動予測を協調的に行うために,MotionNetと呼ばれる効率的な深層モデルを提案する。
MotionNetは一連のスイープを入力として、各グリッドセルのオブジェクトカテゴリとモーション情報をエンコードする鳥の目視マップ(BEV)を出力する。
- 参考スコア(独自算出の注目度): 34.24949016811546
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability to reliably perceive the environmental states, particularly the
existence of objects and their motion behavior, is crucial for autonomous
driving. In this work, we propose an efficient deep model, called MotionNet, to
jointly perform perception and motion prediction from 3D point clouds.
MotionNet takes a sequence of LiDAR sweeps as input and outputs a bird's eye
view (BEV) map, which encodes the object category and motion information in
each grid cell. The backbone of MotionNet is a novel spatio-temporal pyramid
network, which extracts deep spatial and temporal features in a hierarchical
fashion. To enforce the smoothness of predictions over both space and time, the
training of MotionNet is further regularized with novel spatial and temporal
consistency losses. Extensive experiments show that the proposed method overall
outperforms the state-of-the-arts, including the latest scene-flow- and
3D-object-detection-based methods. This indicates the potential value of the
proposed method serving as a backup to the bounding-box-based system, and
providing complementary information to the motion planner in autonomous
driving. Code is available at https://github.com/pxiangwu/MotionNet.
- Abstract(参考訳): 環境状態、特に物体の存在とその運動行動を確実に認識する能力は、自律運転に不可欠である。
本研究では,3次元点雲からの知覚と運動予測を協調的に行うために,MotionNetと呼ばれる効率的な深層モデルを提案する。
MotionNetは、入力としてLiDARのシーケンスをスイープし、各グリッドセル内のオブジェクトカテゴリとモーション情報をエンコードする鳥の目視マップ(BEV)を出力する。
MotionNetのバックボーンは、階層的な方法で深い空間的特徴と時間的特徴を抽出する、新しい時空間ピラミッドネットワークである。
空間と時間の両方で予測の滑らかさを強制するため、motionnetのトレーニングはさらに新しい空間的および時間的一貫性の損失を伴う正規化される。
広範な実験により,提案手法は,最新のシーンフローや3dオブジェクト検出法など,最先端の手法を全般的に上回っていることが示された。
このことは,提案手法がバウンディングボックスベースシステムへのバックアップとして機能し,自律運転時の運動プランナに補完情報を提供する可能性を示している。
コードはhttps://github.com/pxiangwu/MotionNetで入手できる。
関連論文リスト
- OFMPNet: Deep End-to-End Model for Occupancy and Flow Prediction in Urban Environment [0.0]
環境中の全ての動的オブジェクトの将来の挙動を予測するために,エンド・ツー・エンドのニューラルネットワーク手法を提案する。
本稿では, 終点誤差の大幅な低減を図った新しい時間重み付きモーションフロー損失を提案する。
論文 参考訳(メタデータ) (2024-04-02T19:37:58Z) - Implicit Occupancy Flow Fields for Perception and Prediction in
Self-Driving [68.95178518732965]
自動運転車(SDV)は、周囲を認識でき、他の交通参加者の将来の行動を予測できなければならない。
既存の作業は、検出されたオブジェクトの軌跡が続くオブジェクト検出を実行するか、シーン全体の密度の高い占有とフローグリッドを予測するかのいずれかである。
これは、認識と将来の予測に対する統一されたアプローチを動機付け、単一のニューラルネットワークで時間とともに占有とフローを暗黙的に表現します。
論文 参考訳(メタデータ) (2023-08-02T23:39:24Z) - TrajectoryFormer: 3D Object Tracking Transformer with Predictive
Trajectory Hypotheses [51.60422927416087]
3Dマルチオブジェクトトラッキング(MOT)は、自律走行車やサービスロボットを含む多くのアプリケーションにとって不可欠である。
本稿では,新しいポイントクラウドベースの3DMOTフレームワークであるTrjectoryFormerを紹介する。
論文 参考訳(メタデータ) (2023-06-09T13:31:50Z) - Visual Perception System for Autonomous Driving [9.659835301514288]
本研究は、走行物体の軌跡追跡と予測を統合して衝突を防止する、自律走行のための視覚的認識システムを導入する。
このシステムは歩行者の動きの手がかりを利用して、その動きを監視し、予測し、同時に環境をマッピングする。
このアプローチの性能、効率、レジリエンスは、シミュレーションと実世界の両方のデータセットの包括的な評価によって実証される。
論文 参考訳(メタデータ) (2023-03-03T23:12:43Z) - BEV-MAE: Bird's Eye View Masked Autoencoders for Point Cloud
Pre-training in Autonomous Driving Scenarios [51.285561119993105]
自律運転におけるLiDARに基づく3Dオブジェクト検出のための,効率的なマスク付きオートエンコーダ事前学習フレームワークであるBEV-MAEを提案する。
具体的には、3Dエンコーダ学習特徴表現を導くために,鳥の目視(BEV)誘導マスキング戦略を提案する。
学習可能なポイントトークンを導入し、3Dエンコーダの一貫性のある受容的フィールドサイズを維持する。
論文 参考訳(メタデータ) (2022-12-12T08:15:03Z) - Motion Policy Networks [61.87789591369106]
本稿では,M$pi$Nets (Motion Policy Networks) と呼ばれるエンドツーエンドのニューラルモデルを提案する。
実験の結果,M$pi$Netsはグローバルプランナーよりもはるかに高速であり,動的シーンに対処するために必要な反応性を示した。
論文 参考訳(メタデータ) (2022-10-21T19:37:09Z) - Receding Moving Object Segmentation in 3D LiDAR Data Using Sparse 4D
Convolutions [33.538055872850514]
歩行歩行者や自動車などの現在移動している物体に属する3D LiDAR点と、壁や駐車中の車など移動しない物体から得られる点とを区別する問題に対処する。
我々の手法は観測されたLiDARスキャンを連続して4D点雲に変換する。
計算効率の良いスパース4D畳み込みを適用し,空間的特徴と時間的特徴を共同抽出し,各点の移動物体の信頼度を推定する。
論文 参考訳(メタデータ) (2022-06-08T18:51:14Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - DS-Net: Dynamic Spatiotemporal Network for Video Salient Object
Detection [78.04869214450963]
時間情報と空間情報のより効果的な融合のための新しい動的時空間ネットワーク(DSNet)を提案する。
提案手法は最先端アルゴリズムよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-09T06:42:30Z) - MoNet: Motion-based Point Cloud Prediction Network [13.336278321863595]
3次元点雲は周囲環境の3次元情報を正確にモデル化する。
ポイントクラウドは秩序がなく、構造化されていないため、ポイントクラウドの予測は難しい。
そこで我々は,MoNetと呼ばれる新しい動きに基づくニューラルネットワークを提案し,点雲の予測を行う。
論文 参考訳(メタデータ) (2020-11-21T15:43:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。