論文の概要: LiDAR-based 4D Occupancy Completion and Forecasting
- arxiv url: http://arxiv.org/abs/2310.11239v1
- Date: Tue, 17 Oct 2023 13:08:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-18 15:49:52.189394
- Title: LiDAR-based 4D Occupancy Completion and Forecasting
- Title(参考訳): LiDARによる4次元作業完了と予測
- Authors: Xinhao Liu, Moonjun Gong, Qi Fang, Haoyu Xie, Yiming Li, Hang Zhao,
Chen Feng
- Abstract要約: 本稿では,自動運転の文脈において,Occupancy Completion and Forecasting(OCF)という新たなLiDAR認識タスクを導入する。
本課題は,(1)スパース・トゥ・デンス再構成,(2)部分的・完全幻覚,(3)3次元から4次元の予測という3つの課題に対処する新しいアルゴリズムを必要とする。
この研究は、この進化し重要な4D知覚領域のさらなる研究を呼び起こすことを期待している。
- 参考スコア(独自算出の注目度): 36.655620377951024
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Scene completion and forecasting are two popular perception problems in
research for mobile agents like autonomous vehicles. Existing approaches treat
the two problems in isolation, resulting in a separate perception of the two
aspects. In this paper, we introduce a novel LiDAR perception task of Occupancy
Completion and Forecasting (OCF) in the context of autonomous driving to unify
these aspects into a cohesive framework. This task requires new algorithms to
address three challenges altogether: (1) sparse-to-dense reconstruction, (2)
partial-to-complete hallucination, and (3) 3D-to-4D prediction. To enable
supervision and evaluation, we curate a large-scale dataset termed OCFBench
from public autonomous driving datasets. We analyze the performance of closely
related existing baseline models and our own ones on our dataset. We envision
that this research will inspire and call for further investigation in this
evolving and crucial area of 4D perception. Our code for data curation and
baseline implementation is available at https://github.com/ai4ce/Occ4cast.
- Abstract(参考訳): シーンの完成と予測は、自動運転車のようなモバイルエージェントの研究における2つの一般的な認識問題である。
既存のアプローチは2つの問題を分離して扱い、2つの側面を別々に認識する。
本稿では、自律運転の文脈において、これらの側面を結合的な枠組みに統一する新しいLiDAR認識タスクであるOccupancy Completion and Forecasting(OCF)を紹介する。
本課題は,(1)スパース・トゥ・デンス再構成,(2)部分的・完全幻覚,(3)3次元から4次元の予測という3つの課題に対処する新しいアルゴリズムを必要とする。
監視と評価を可能にするため、公共の自動運転データセットからOCFBenchと呼ばれる大規模データセットをキュレートする。
我々は,我々のデータセット上で,既存のベースラインモデルと私たち自身のモデルのパフォーマンスを分析する。
この研究は、この進化し重要な4D知覚領域のさらなる研究を呼び起こすことを期待している。
データキュレーションとベースライン実装のコードはhttps://github.com/ai4ce/occ4cast.com/で利用可能です。
関連論文リスト
- InScope: A New Real-world 3D Infrastructure-side Collaborative Perception Dataset for Open Traffic Scenarios [13.821143687548494]
本稿では,新しい3次元インフラ側協調認識データセットについて紹介する。
InScopeは303の追跡軌道と187,787個の3D境界ボックスで20日間の捕獲期間をカプセル化している。
論文 参考訳(メタデータ) (2024-07-31T13:11:14Z) - Point Cloud Forecasting as a Proxy for 4D Occupancy Forecasting [58.45661235893729]
有望な自己管理タスクの1つは、注釈のないLiDARシーケンスからの3Dポイントクラウド予測である。
本課題は,(1)センサ外在物(自動運転車の移動),(2)センサ内在物(特定のLiDARセンサに特有のサンプリングパターン),(3)シーン内の他の物体の形状と動きを暗黙的にキャプチャするアルゴリズムを必要とすることを示す。
センサ外在性および内在性に関する4D占有率予測のポイントクラウドデータをレンダリングすることにより、注釈のないLiDARシーケンスで占有率アルゴリズムをトレーニングし、テストすることができる。
論文 参考訳(メタデータ) (2023-02-25T18:12:37Z) - GIPSO: Geometrically Informed Propagation for Online Adaptation in 3D
LiDAR Segmentation [60.07812405063708]
3Dポイントクラウドセマンティックセグメンテーションは、自動運転に基本である。
文学におけるほとんどのアプローチは、動的シーンを扱う際に、ドメインシフトをどのように扱うかという重要な側面を無視している。
本稿では,本研究分野における最先端技術について述べる。
論文 参考訳(メタデータ) (2022-07-20T09:06:07Z) - DOLPHINS: Dataset for Collaborative Perception enabled Harmonious and
Interconnected Self-driving [19.66714697653504]
V2Xネットワークは、自動運転における協調的な認識を可能にしている。
データセットの欠如は、協調認識アルゴリズムの開発を著しく妨げている。
DOLPHINS: cOllaborative Perception を実現するためのデータセットである Harmonious と Inter connected Self-driving をリリースする。
論文 参考訳(メタデータ) (2022-07-15T17:07:07Z) - Learning-based Point Cloud Registration for 6D Object Pose Estimation in
the Real World [55.7340077183072]
我々は、ポイントクラウドデータからオブジェクトの6Dポーズを推定するタスクに取り組む。
この課題に対処する最近の学習ベースのアプローチは、合成データセットにおいて大きな成功を収めている。
これらの障害の原因を分析し、ソースとターゲットポイントの雲の特徴分布の違いに遡る。
論文 参考訳(メタデータ) (2022-03-29T07:55:04Z) - LiDAR-based 4D Panoptic Segmentation via Dynamic Shifting Network [56.71765153629892]
本稿では,ポイントクラウド領域における効果的な単視分割フレームワークとして機能する動的シフトネットワーク(DS-Net)を提案する。
提案するDS-Netは,両タスクの現在の最先端手法よりも優れた精度を実現する。
DS-Netを4次元パノプティカルLiDARセグメンテーションに拡張し、一列のLiDARフレーム上で時間的に統一されたインスタンスクラスタリングを行う。
論文 参考訳(メタデータ) (2022-03-14T15:25:42Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - LiDAR-based Panoptic Segmentation via Dynamic Shifting Network [56.71765153629892]
LiDARベースのパノプティカルセグメンテーションは、オブジェクトとシーンを統一的に解析することを目的としている。
本稿では,ポイントクラウド領域における効果的な単視分割フレームワークとして機能する動的シフトネットワーク(DS-Net)を提案する。
提案するDS-Netは,現在の最先端手法よりも優れた精度を実現する。
論文 参考訳(メタデータ) (2020-11-24T08:44:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。