論文の概要: 4D Panoptic LiDAR Segmentation
- arxiv url: http://arxiv.org/abs/2102.12472v1
- Date: Wed, 24 Feb 2021 18:56:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-26 09:38:55.424001
- Title: 4D Panoptic LiDAR Segmentation
- Title(参考訳): 4d panoptic lidarセグメンテーション
- Authors: Mehmet Ayg\"un, Aljo\v{s}a O\v{s}ep, Mark Weber, Maxim Maximov, Cyrill
Stachniss, Jens Behley, Laura Leal-Taix\'e
- Abstract要約: 意味クラスと時間的に一貫性のあるインスタンスIDを3Dポイントのシーケンスに割り当てる4DパノプティカルLiDARセグメンテーションを提案する。
マルチオブジェクトトラッキングのベンチマークの最近の進歩に触発され、タスクのセマンティクスとポイントツーインスタンスの関連を分離する新しい評価指標を採用することを提案する。
- 参考スコア(独自算出の注目度): 27.677435778317054
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Temporal semantic scene understanding is critical for self-driving cars or
robots operating in dynamic environments. In this paper, we propose 4D panoptic
LiDAR segmentation to assign a semantic class and a temporally-consistent
instance ID to a sequence of 3D points. To this end, we present an approach and
a point-centric evaluation metric. Our approach determines a semantic class for
every point while modeling object instances as probability distributions in the
4D spatio-temporal domain. We process multiple point clouds in parallel and
resolve point-to-instance associations, effectively alleviating the need for
explicit temporal data association. Inspired by recent advances in benchmarking
of multi-object tracking, we propose to adopt a new evaluation metric that
separates the semantic and point-to-instance association aspects of the task.
With this work, we aim at paving the road for future developments of temporal
LiDAR panoptic perception.
- Abstract(参考訳): 時間的セマンティックなシーン理解は、自動運転車や動的環境で動作するロボットにとって重要である。
本稿では,意味クラスと時間的に一貫性のあるインスタンスIDを3Dポイントのシーケンスに割り当てる4DパノプティカルLiDARセグメンテーションを提案する。
この目的のために,アプローチと点中心評価指標を提案する。
4次元時空間領域における確率分布としてオブジェクトインスタンスをモデル化しながら,各点の意味クラスを決定する。
複数点の雲を並列に処理し、点間関係を解消し、時間的データアソシエーションの必要性を効果的に軽減する。
マルチオブジェクト追跡のベンチマークの最近の進歩に触発されて,タスクのセマンティックおよびポイント・ツー・インスタンス・アソシエーションの側面を分離する新たな評価指標を提案する。
本研究は,時間的ライダーパノプティクスの今後の展開に向けた道路整備を目標としている。
関連論文リスト
- Hierarchical Temporal Context Learning for Camera-based Semantic Scene Completion [57.232688209606515]
カメラによるセマンティックシーンの補完を改善するための,新たな時間的文脈学習パラダイムであるHTCLを提案する。
提案手法は,Semantic KITTIベンチマークで1st$をランク付けし,mIoUの点でLiDARベースの手法を超えている。
論文 参考訳(メタデータ) (2024-07-02T09:11:17Z) - SeMoLi: What Moves Together Belongs Together [51.72754014130369]
動作手がかりに基づく半教師付き物体検出に挑戦する。
近年,移動物体の擬似ラベルインスタンスに対して,動きに基づくクラスタリング手法が適用可能であることが示唆された。
我々は、このアプローチを再考し、オブジェクト検出とモーションインスパイアされた擬似ラベルの両方が、データ駆動方式で取り組めることを示唆する。
論文 参考訳(メタデータ) (2024-02-29T18:54:53Z) - Mask4Former: Mask Transformer for 4D Panoptic Segmentation [13.99703660936949]
Mask4Formerは、セマンティックインスタンスのセグメンテーションとトラッキングを統合する最初のトランスフォーマーベースのアプローチである。
本モデルは,手作りの非学習型アソシエーション戦略に頼ることなく,その時間的アソシエーションのセマンティックインスタンスを直接予測する。
Mask4Formerは68.4 LSTQのスコアでSemanticTITIテストセットの最先端を達成している。
論文 参考訳(メタデータ) (2023-09-28T03:30:50Z) - A Spatiotemporal Correspondence Approach to Unsupervised LiDAR
Segmentation with Traffic Applications [16.260518238832887]
鍵となる考え方は、動的ポイントクラウドシーケンスの性質を活用し、非常に強力なシナリオを導入することである。
我々は、グループへのセマンティクスの最適化と、ポイントワイトテンポラルラベルを用いたクラスタリングを交互に行う。
本手法は,教師なし学習方式で識別的特徴を学習することができる。
論文 参考訳(メタデータ) (2023-08-23T21:32:46Z) - Semantics Meets Temporal Correspondence: Self-supervised Object-centric Learning in Videos [63.94040814459116]
自己教師付き手法は、高レベルの意味論と低レベルの時間対応の学習において顕著な進歩を見せている。
融合した意味特徴と対応地図の上に,意味認識型マスキングスロットアテンションを提案する。
我々は、時間的コヒーレントなオブジェクト中心表現を促進するために、セマンティックおよびインスタンスレベルの時間的一貫性を自己スーパービジョンとして採用する。
論文 参考訳(メタデータ) (2023-08-19T09:12:13Z) - Learning Monocular Depth in Dynamic Environment via Context-aware
Temporal Attention [9.837958401514141]
マルチフレーム単眼深度推定のためのコンテキスト対応テンポラルアテンション誘導ネットワークであるCTA-Depthを提案する。
提案手法は,3つのベンチマークデータセットに対する最先端アプローチよりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-05-12T11:48:32Z) - Modeling Continuous Motion for 3D Point Cloud Object Tracking [54.48716096286417]
本稿では,各トラックレットを連続ストリームとみなす新しいアプローチを提案する。
各タイムスタンプでは、現在のフレームだけがネットワークに送られ、メモリバンクに格納された複数フレームの履歴機能と相互作用する。
頑健な追跡のためのマルチフレーム機能の利用性を高めるために,コントラッシブシーケンス強化戦略を提案する。
論文 参考訳(メタデータ) (2023-03-14T02:58:27Z) - 3DMODT: Attention-Guided Affinities for Joint Detection & Tracking in 3D
Point Clouds [95.54285993019843]
本稿では,3次元点雲における複数物体の同時検出と追跡手法を提案する。
本モデルでは,複数のフレームを用いた時間情報を利用してオブジェクトを検出し,一つのネットワーク上で追跡する。
論文 参考訳(メタデータ) (2022-11-01T20:59:38Z) - Instance Segmentation with Cross-Modal Consistency [13.524441194366544]
本稿では,複数センサモードの測定を協調的に活用するインスタンスセグメンテーションへの新しいアプローチを提案する。
本手法は, センサ・モダリティと時間領域の両面において, 現場の点に対してコントラスト学習を適用した。
この定式化は、視点の変化に不変な埋め込みを学ぶことをモデルに促すことを実証する。
論文 参考訳(メタデータ) (2022-10-14T21:17:19Z) - Learning Spatial and Temporal Variations for 4D Point Cloud Segmentation [0.39373541926236766]
フレーム間の時間的情報は3次元シーンの知覚に重要な知識をもたらすと我々は主張する。
本研究では,4次元点雲の時間変動を捉えるために,時間変動対応モジュールと時間変化対応のボクセル点精製器を設計する。
論文 参考訳(メタデータ) (2022-07-11T07:36:26Z) - Learning to Track with Object Permanence [61.36492084090744]
共同物体の検出と追跡のためのエンドツーエンドのトレーニング可能なアプローチを紹介します。
私たちのモデルは、合成データと実データで共同トレーニングされ、KITTIおよびMOT17データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2021-03-26T04:43:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。