論文の概要: WOMD-LiDAR: Raw Sensor Dataset Benchmark for Motion Forecasting
- arxiv url: http://arxiv.org/abs/2304.03834v2
- Date: Sun, 18 Feb 2024 23:23:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 07:12:37.808970
- Title: WOMD-LiDAR: Raw Sensor Dataset Benchmark for Motion Forecasting
- Title(参考訳): WOMD-LiDAR:モーション予測のための生センサデータセットベンチマーク
- Authors: Kan Chen, Runzhou Ge, Hang Qiu, Rami AI-Rfou, Charles R. Qi, Xuanyu
Zhou, Zoey Yang, Scott Ettinger, Pei Sun, Zhaoqi Leng, Mustafa Baniodeh, Ivan
Bogun, Weiyue Wang, Mingxing Tan, Dragomir Anguelov
- Abstract要約: 動作予測タスクのための大規模で高品質な多種多様なLiDARデータを用いて,Open Motionデータセットを拡張した。
新しいデータセットWOMD-LiDARは10万枚以上のシーンで構成され、それぞれ20秒にまたがる。
実験の結果,LiDARデータは動き予測タスクの改善をもたらすことがわかった。
- 参考スコア(独自算出の注目度): 38.95768804529958
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Widely adopted motion forecasting datasets substitute the observed sensory
inputs with higher-level abstractions such as 3D boxes and polylines. These
sparse shapes are inferred through annotating the original scenes with
perception systems' predictions. Such intermediate representations tie the
quality of the motion forecasting models to the performance of computer vision
models. Moreover, the human-designed explicit interfaces between perception and
motion forecasting typically pass only a subset of the semantic information
present in the original sensory input. To study the effect of these modular
approaches, design new paradigms that mitigate these limitations, and
accelerate the development of end-to-end motion forecasting models, we augment
the Waymo Open Motion Dataset (WOMD) with large-scale, high-quality, diverse
LiDAR data for the motion forecasting task.
The new augmented dataset WOMD-LiDAR consists of over 100,000 scenes that
each spans 20 seconds, consisting of well-synchronized and calibrated high
quality LiDAR point clouds captured across a range of urban and suburban
geographies (https://waymo.com/open/data/motion/). Compared to Waymo Open
Dataset (WOD), WOMD-LiDAR dataset contains 100x more scenes. Furthermore, we
integrate the LiDAR data into the motion forecasting model training and provide
a strong baseline. Experiments show that the LiDAR data brings improvement in
the motion forecasting task. We hope that WOMD-LiDAR will provide new
opportunities for boosting end-to-end motion forecasting models.
- Abstract(参考訳): 広く採用されている動き予測データセットは、観測された感覚入力を3Dボックスやポリラインのような高レベルの抽象化で置き換える。
これらのスパースな形状は、知覚システムの予測で元のシーンに注釈を付けて推測される。
このような中間表現は、動き予測モデルの品質とコンピュータビジョンモデルの性能を結びつける。
さらに、人間によって設計された知覚と動き予測の明確なインターフェースは、通常、元の感覚入力に存在する意味情報のサブセットを通り過ぎます。
これらのモジュラーアプローチの効果について検討し、これらの制約を緩和する新しいパラダイムを設計し、エンドツーエンドのモーション予測モデルの開発を加速するために、大規模かつ高品質で多様なLiDARデータを用いて、Waymo Open Motion Dataset(WOMD)を拡張した。
新しい拡張現実データセットWOMD-LiDARは、それぞれ20秒にまたがる10000以上のシーンで構成され、高度に同期化され、校正された高品質のLiDAR点雲が、都市や郊外の地理的に捕獲される(https://waymo.com/open/data/motion/)。
Waymo Open Dataset (WOD)と比較して、WOMD-LiDARデータセットには100倍以上のシーンが含まれている。
さらに,lidarデータをモーション予測モデルのトレーニングに統合し,強力なベースラインを提供する。
実験の結果,LiDARデータは動き予測タスクの改善をもたらすことがわかった。
我々は、WOMD-LiDARがエンドツーエンドのモーション予測モデルを強化する新たな機会を提供することを期待している。
関連論文リスト
- Future Does Matter: Boosting 3D Object Detection with Temporal Motion Estimation in Point Cloud Sequences [25.74000325019015]
クロスフレーム動作予測情報を用いた時空間特徴学習を容易にするために,新しいLiDAR 3Dオブジェクト検出フレームワークLiSTMを導入する。
我々は,本フレームワークが優れた3次元検出性能を実現することを示すため,アグリゲーションとnuScenesデータセットの実験を行った。
論文 参考訳(メタデータ) (2024-09-06T16:29:04Z) - LiveHPS: LiDAR-based Scene-level Human Pose and Shape Estimation in Free
Environment [59.320414108383055]
シーンレベルの人間のポーズと形状推定のための単一LiDARに基づく新しいアプローチであるLiveHPSを提案する。
多様な人間のポーズを伴う様々なシナリオで収集される巨大な人間の動きデータセットFreeMotionを提案する。
論文 参考訳(メタデータ) (2024-02-27T03:08:44Z) - Realistic Rainy Weather Simulation for LiDARs in CARLA Simulator [17.605152926277707]
本稿では,降雨時のLiDARデータを拡張するためのシミュレータに基づく物理モデリング手法を提案する。
CARLAシミュレータにおける雨天候のモデリングタスクを完了し、LiDARデータ収集のためのパイプラインを確立する。
実験では、合成データにより強化されたモデルにより、物体検出タスクの性能が向上することが観察された。
論文 参考訳(メタデータ) (2023-12-20T05:16:04Z) - JRDB-Traj: A Dataset and Benchmark for Trajectory Forecasting in Crowds [79.00975648564483]
ロボット工学、自動運転車、ナビゲーションなどの分野で使用される軌道予測モデルは、現実のシナリオにおいて課題に直面している。
このデータセットは、ロボットの観点から、すべてのエージェント、シーンイメージ、ポイントクラウドの位置を含む包括的なデータを提供する。
本研究の目的は,ロボットに対するエージェントの将来の位置を,生の感覚入力データを用いて予測することである。
論文 参考訳(メタデータ) (2023-11-05T18:59:31Z) - LiDAR Data Synthesis with Denoising Diffusion Probabilistic Models [1.1965844936801797]
3D LiDARデータの生成モデリングは、自律移動ロボットに有望な応用をもたらす新たな課題である。
我々は,多種多様かつ高忠実な3Dシーンポイント雲を生成可能な,LiDARデータのための新しい生成モデルR2DMを提案する。
本手法は拡散確率モデル (DDPM) を用いて構築され, 生成モデルフレームワークにおいて顕著な結果が得られた。
論文 参考訳(メタデータ) (2023-09-17T12:26:57Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - LiDARCap: Long-range Marker-less 3D Human Motion Capture with LiDAR
Point Clouds [58.402752909624716]
既存のモーションキャプチャデータセットはほとんどが短距離であり、まだ長距離アプリケーションのニーズに合わない。
我々は,この制限を克服するために,LiDARがより長い範囲で捉えた新しい人間のモーションキャプチャーデータセットLiDARHuman26Mを提案する。
我々のデータセットには、IMUシステムによって取得された人間の動きと同期RGB画像も含まれている。
論文 参考訳(メタデータ) (2022-03-28T12:52:45Z) - Scalable Scene Flow from Point Clouds in the Real World [30.437100097997245]
オープンデータセットに基づくシーンフローの大規模ベンチマークを新たに導入します。
実際のLiDARデータの量に基づいて、これまでの作業がバウンドされているかを示す。
フルポイントクラウド上でリアルタイム推論を提供するモデルアーキテクチャFastFlow3Dを紹介します。
論文 参考訳(メタデータ) (2021-03-01T20:56:05Z) - SLPC: a VRNN-based approach for stochastic lidar prediction and
completion in autonomous driving [63.87272273293804]
VRNN(Variiational Recurrent Neural Networks)と呼ばれる生成モデルに基づく新しいLiDAR予測フレームワークを提案する。
提案手法は,フレーム内の奥行きマップを空間的に塗り替えることで,スパースデータを扱う際の従来のビデオ予測フレームワークの限界に対処できる。
VRNNのスパースバージョンとラベルを必要としない効果的な自己監督型トレーニング方法を紹介します。
論文 参考訳(メタデータ) (2021-02-19T11:56:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。