論文の概要: MoNet: Motion-based Point Cloud Prediction Network
- arxiv url: http://arxiv.org/abs/2011.10812v1
- Date: Sat, 21 Nov 2020 15:43:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 23:23:46.396310
- Title: MoNet: Motion-based Point Cloud Prediction Network
- Title(参考訳): MoNet: モーションベースのポイントクラウド予測ネットワーク
- Authors: Fan Lu, Guang Chen, Yinlong Liu, Zhijun Li, Sanqing Qu, Tianpei Zou
- Abstract要約: 3次元点雲は周囲環境の3次元情報を正確にモデル化する。
ポイントクラウドは秩序がなく、構造化されていないため、ポイントクラウドの予測は難しい。
そこで我々は,MoNetと呼ばれる新しい動きに基づくニューラルネットワークを提案し,点雲の予測を行う。
- 参考スコア(独自算出の注目度): 13.336278321863595
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Predicting the future can significantly improve the safety of intelligent
vehicles, which is a key component in autonomous driving. 3D point clouds
accurately model 3D information of surrounding environment and are crucial for
intelligent vehicles to perceive the scene. Therefore, prediction of 3D point
clouds has great significance for intelligent vehicles, which can be utilized
for numerous further applications. However, due to point clouds are unordered
and unstructured, point cloud prediction is challenging and has not been deeply
explored in current literature. In this paper, we propose a novel motion-based
neural network named MoNet. The key idea of the proposed MoNet is to integrate
motion features between two consecutive point clouds into the prediction
pipeline. The introduction of motion features enables the model to more
accurately capture the variations of motion information across frames and thus
make better predictions for future motion. In addition, content features are
introduced to model the spatial content of individual point clouds. A recurrent
neural network named MotionRNN is proposed to capture the temporal correlations
of both features. Besides, we propose an attention-based motion align module to
address the problem of missing motion features in the inference pipeline.
Extensive experiments on two large scale outdoor LiDAR datasets demonstrate the
performance of the proposed MoNet. Moreover, we perform experiments on
applications using the predicted point clouds and the results indicate the
great application potential of the proposed method.
- Abstract(参考訳): 未来を予測することは、自動運転の重要な要素であるインテリジェントな車の安全性を大幅に改善することができる。
3Dポイントクラウドは、周囲の環境の3D情報を正確にモデル化し、インテリジェントな車両がシーンを知覚するのに不可欠である。
したがって、3次元点雲の予測はインテリジェントな車両にとって非常に重要であり、さらに多くの応用に利用することができる。
しかし、点雲は秩序がなく、構造化されていないため、点雲の予測は困難であり、現在の文献では深く研究されていない。
本稿では,MoNetと呼ばれる動きに基づくニューラルネットを提案する。
提案されたmonetの重要なアイデアは、2つの連続したポイントクラウド間の動き機能を予測パイプラインに統合することだ。
動き特徴の導入により、モデルがフレーム間の動き情報の変動をより正確に捉え、将来の動きを予測することができる。
さらに、個々の点雲の空間的内容をモデル化するためにコンテンツ特徴を導入する。
両方の特徴の時間相関を捉えるために、MotionRNNという繰り返しニューラルネットワークが提案されている。
さらに,推定パイプラインの動作特徴の欠如問題に対処するために,注意に基づくモーションアライメントモジュールを提案する。
2つの大規模屋外LiDARデータセットに対する大規模な実験は、提案したMoNetの性能を示す。
さらに,予測した点群を用いたアプリケーション実験を行い,提案手法の応用可能性を示す。
関連論文リスト
- Future Does Matter: Boosting 3D Object Detection with Temporal Motion Estimation in Point Cloud Sequences [25.74000325019015]
クロスフレーム動作予測情報を用いた時空間特徴学習を容易にするために,新しいLiDAR 3Dオブジェクト検出フレームワークLiSTMを導入する。
我々は,本フレームワークが優れた3次元検出性能を実現することを示すため,アグリゲーションとnuScenesデータセットの実験を行った。
論文 参考訳(メタデータ) (2024-09-06T16:29:04Z) - OFMPNet: Deep End-to-End Model for Occupancy and Flow Prediction in Urban Environment [0.0]
環境中の全ての動的オブジェクトの将来の挙動を予測するために,エンド・ツー・エンドのニューラルネットワーク手法を提案する。
本稿では, 終点誤差の大幅な低減を図った新しい時間重み付きモーションフロー損失を提案する。
論文 参考訳(メタデータ) (2024-04-02T19:37:58Z) - TrajectoryNAS: A Neural Architecture Search for Trajectory Prediction [0.0]
軌道予測は自律走行システムの重要な構成要素である。
本稿では,軌道予測にポイントクラウドデータを活用する先駆的手法であるTrajectoryNASを紹介する。
論文 参考訳(メタデータ) (2024-03-18T11:48:41Z) - AGAR: Attention Graph-RNN for Adaptative Motion Prediction of Point
Clouds of Deformable Objects [7.414594429329531]
変形可能な3Dオブジェクトのポイントクラウド予測のための改良されたアーキテクチャを提案する。
具体的には、変形可能な形状を扱うために、点雲の空間構造を学習し、活用するグラフベースのアプローチを提案する。
提案した適応モジュールは各点の局所的および大域的な動きの合成を制御し、変形可能な3Dオブジェクトの複雑な動きをより効率的にモデル化することができる。
論文 参考訳(メタデータ) (2023-07-19T12:21:39Z) - Deep Learning for Day Forecasts from Sparse Observations [60.041805328514876]
深層ニューラルネットワークは、気象条件をモデル化するための代替パラダイムを提供する。
MetNet-3は、密度とスパースの両方のデータセンサーから学習し、降水、風、温度、露点を最大24時間前に予測する。
MetNet-3は、それぞれ時間分解能と空間分解能が高く、最大2分と1km、運用遅延は低い。
論文 参考訳(メタデータ) (2023-06-06T07:07:54Z) - SLPC: a VRNN-based approach for stochastic lidar prediction and
completion in autonomous driving [63.87272273293804]
VRNN(Variiational Recurrent Neural Networks)と呼ばれる生成モデルに基づく新しいLiDAR予測フレームワークを提案する。
提案手法は,フレーム内の奥行きマップを空間的に塗り替えることで,スパースデータを扱う際の従来のビデオ予測フレームワークの限界に対処できる。
VRNNのスパースバージョンとラベルを必要としない効果的な自己監督型トレーニング方法を紹介します。
論文 参考訳(メタデータ) (2021-02-19T11:56:44Z) - IntentNet: Learning to Predict Intention from Raw Sensor Data [86.74403297781039]
本論文では,LiDARセンサが生成する3次元点群と,環境の動的なマップの両方を利用するワンステージ検出器と予測器を開発した。
当社のマルチタスクモデルは、それぞれの別々のモジュールよりも高い精度を実現し、計算を節約します。
論文 参考訳(メタデータ) (2021-01-20T00:31:52Z) - PC-RGNN: Point Cloud Completion and Graph Neural Network for 3D Object
Detection [57.49788100647103]
LiDARベースの3Dオブジェクト検出は、自動運転にとって重要なタスクです。
現在のアプローチでは、遠方および閉ざされた物体の偏りと部分的な点雲に苦しむ。
本稿では,この課題を2つの解決法で解決する新しい二段階アプローチ,pc-rgnnを提案する。
論文 参考訳(メタデータ) (2020-12-18T18:06:43Z) - InfoFocus: 3D Object Detection for Autonomous Driving with Dynamic
Information Modeling [65.47126868838836]
動的情報モデリングを用いた新しい3次元オブジェクト検出フレームワークを提案する。
粗い予測は、ボクセルベースの領域提案ネットワークを介して第1段階で生成される。
大規模なnuScenes 3D検出ベンチマークで実験を行った。
論文 参考訳(メタデータ) (2020-07-16T18:27:08Z) - Pseudo-LiDAR Point Cloud Interpolation Based on 3D Motion Representation
and Spatial Supervision [68.35777836993212]
我々はPseudo-LiDAR点雲ネットワークを提案し、時間的および空間的に高品質な点雲列を生成する。
点雲間のシーンフローを活用することにより,提案ネットワークは3次元空間運動関係のより正確な表現を学習することができる。
論文 参考訳(メタデータ) (2020-06-20T03:11:04Z) - MotionNet: Joint Perception and Motion Prediction for Autonomous Driving
Based on Bird's Eye View Maps [34.24949016811546]
我々は,3次元点雲からの知覚と運動予測を協調的に行うために,MotionNetと呼ばれる効率的な深層モデルを提案する。
MotionNetは一連のスイープを入力として、各グリッドセルのオブジェクトカテゴリとモーション情報をエンコードする鳥の目視マップ(BEV)を出力する。
論文 参考訳(メタデータ) (2020-03-15T04:37:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。