論文の概要: InsMOS: Instance-Aware Moving Object Segmentation in LiDAR Data
- arxiv url: http://arxiv.org/abs/2303.03909v1
- Date: Tue, 7 Mar 2023 14:12:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-08 15:14:09.143081
- Title: InsMOS: Instance-Aware Moving Object Segmentation in LiDAR Data
- Title(参考訳): InsMOS: LiDARデータにおけるオブジェクトセグメンテーションのインスタンス対応
- Authors: Neng Wang, Chenghao Shi, Ruibin Guo, Huimin Lu, Zhiqiang Zheng,
Xieyuanli Chen
- Abstract要約: 本稿では,3次元LiDARスキャンにおける移動物体のセグメント化という課題に対処する新しいネットワークを提案する。
提案手法は点雲の列を入力として利用し,それらを4次元ボクセルに定量化する。
我々は,4Dボクセルから運動特徴を抽出し,電流スキャンに注入するために,4Dスパース畳み込みを用いる。
- 参考スコア(独自算出の注目度): 13.196031553445117
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Identifying moving objects is a crucial capability for autonomous navigation,
consistent map generation, and future trajectory prediction of objects. In this
paper, we propose a novel network that addresses the challenge of segmenting
moving objects in 3D LiDAR scans. Our approach not only predicts point-wise
moving labels but also detects instance information of main traffic
participants. Such a design helps determine which instances are actually moving
and which ones are temporarily static in the current scene. Our method exploits
a sequence of point clouds as input and quantifies them into 4D voxels. We use
4D sparse convolutions to extract motion features from the 4D voxels and inject
them into the current scan. Then, we extract spatio-temporal features from the
current scan for instance detection and feature fusion. Finally, we design an
upsample fusion module to output point-wise labels by fusing the
spatio-temporal features and predicted instance information. We evaluated our
approach on the LiDAR-MOS benchmark based on SemanticKITTI and achieved better
moving object segmentation performance compared to state-of-the-art methods,
demonstrating the effectiveness of our approach in integrating instance
information for moving object segmentation. Furthermore, our method shows
superior performance on the Apollo dataset with a pre-trained model on
SemanticKITTI, indicating that our method generalizes well in different
scenes.The code and pre-trained models of our method will be released at
https://github.com/nubot-nudt/InsMOS.
- Abstract(参考訳): 移動物体の同定は、自律的なナビゲーション、一貫したマップ生成、将来の物体の軌道予測において重要な機能である。
本稿では,移動物体を3次元LiDARスキャンで分割するという課題に対処する新しいネットワークを提案する。
提案手法は,ポイントワイズ移動ラベルの予測だけでなく,メイントラヒック参加者のインスタンス情報も検出する。
このような設計は、実際に動いているインスタンスと、現在のシーンで一時的に静的なインスタンスを決定するのに役立つ。
本手法は点雲の列を入力として活用し,それらを4次元ボクセルに定量化する。
我々は,4Dボクセルから運動特徴を抽出し,電流スキャンに注入するために,4Dスパース畳み込みを用いる。
次に,現在のスキャンから時空間的特徴を抽出し,事例検出と特徴融合を行う。
最後に,時空間的特徴と予測インスタンス情報を用いて,ポイントワイズラベルを出力可能なアップサンプル融合モジュールを設計した。
我々は,SemanticKITTIをベースとしたLiDAR-MOSベンチマークに対するアプローチを評価し,最先端手法と比較して移動対象セグメンテーション性能を向上し,移動対象セグメンテーションのインスタンス情報統合におけるアプローチの有効性を実証した。
さらに,本手法はsemantickittiの事前学習モデルを用いたapolloデータセットにおいて優れた性能を示し,異なる場面でよく一般化することを示す。
関連論文リスト
- SeSame: Simple, Easy 3D Object Detection with Point-Wise Semantics [0.7373617024876725]
自律運転では、3Dオブジェクト検出は、経路計画や動き推定を含む下流タスクに対してより正確な情報を提供する。
本稿では,既存のLiDARのみに基づく3Dオブジェクト検出における意味情報の強化を目的としたSeSameを提案する。
KITTIオブジェクト検出ベンチマークにおいて,提案手法の有効性を示す実験を行った。
論文 参考訳(メタデータ) (2024-03-11T08:17:56Z) - SeMoLi: What Moves Together Belongs Together [51.72754014130369]
動作手がかりに基づく半教師付き物体検出に挑戦する。
近年,移動物体の擬似ラベルインスタンスに対して,動きに基づくクラスタリング手法が適用可能であることが示唆された。
我々は、このアプローチを再考し、オブジェクト検出とモーションインスパイアされた擬似ラベルの両方が、データ駆動方式で取り組めることを示唆する。
論文 参考訳(メタデータ) (2024-02-29T18:54:53Z) - Contrastive Lift: 3D Object Instance Segmentation by Slow-Fast
Contrastive Fusion [110.84357383258818]
本稿では,2次元セグメントを3次元に上げ,ニューラルネットワーク表現を用いて融合させる新しい手法を提案する。
このアプローチの中核は、高速なクラスタリング目的関数であり、多数のオブジェクトを持つシーンにスケーラブルで適しています。
我々のアプローチは、ScanNet、Hypersim、Replicaのデータセットからの挑戦的なシーンにおいて、最先端の状況よりも優れています。
論文 参考訳(メタデータ) (2023-06-07T17:57:45Z) - Event-Free Moving Object Segmentation from Moving Ego Vehicle [88.33470650615162]
動的シーンにおけるオブジェクトセグメンテーション(MOS)の移動は、自律運転において重要で困難だが、未調査の研究テーマである。
ほとんどのセグメンテーション法は、光学フローマップから得られるモーションキューを利用する。
我々は,光学的フローに頼らずにリッチなモーションキューを提供する,より優れた映像理解のためのイベントカメラを活用することを提案する。
論文 参考訳(メタデータ) (2023-04-28T23:43:10Z) - Once Detected, Never Lost: Surpassing Human Performance in Offline LiDAR
based 3D Object Detection [50.959453059206446]
本稿では,高性能なオフラインLiDARによる3Dオブジェクト検出を実現することを目的とする。
まず、経験豊富な人間のアノテータが、トラック中心の視点でオブジェクトに注釈を付けるのを観察する。
従来のオブジェクト中心の視点ではなく,トラック中心の視点で高性能なオフライン検出器を提案する。
論文 参考訳(メタデータ) (2023-04-24T17:59:05Z) - Receding Moving Object Segmentation in 3D LiDAR Data Using Sparse 4D
Convolutions [33.538055872850514]
歩行歩行者や自動車などの現在移動している物体に属する3D LiDAR点と、壁や駐車中の車など移動しない物体から得られる点とを区別する問題に対処する。
我々の手法は観測されたLiDARスキャンを連続して4D点雲に変換する。
計算効率の良いスパース4D畳み込みを適用し,空間的特徴と時間的特徴を共同抽出し,各点の移動物体の信頼度を推定する。
論文 参考訳(メタデータ) (2022-06-08T18:51:14Z) - "What's This?" -- Learning to Segment Unknown Objects from Manipulation
Sequences [27.915309216800125]
本稿では,ロボットマニピュレータを用いた自己教師型把握対象セグメンテーションのための新しいフレームワークを提案する。
本稿では,モーションキューとセマンティック知識を共同で組み込んだ,エンドツーエンドのトレーニング可能な単一アーキテクチャを提案する。
我々の手法は、運動ロボットや3Dオブジェクトモデルの視覚的登録にも、正確な手眼の校正や追加センサーデータにも依存しない。
論文 参考訳(メタデータ) (2020-11-06T10:55:28Z) - AutoTrajectory: Label-free Trajectory Extraction and Prediction from
Videos using Dynamic Points [92.91569287889203]
軌道抽出と予測のための新しいラベルなしアルゴリズムAutoTrajectoryを提案する。
動画中の移動物体をよりよく捉えるために,ダイナミックポイントを導入する。
ビデオ内の歩行者などの移動物体を表すインスタンスポイントに動的ポイントを集約する。
論文 参考訳(メタデータ) (2020-07-11T08:43:34Z) - DOPS: Learning to Detect 3D Objects and Predict their 3D Shapes [54.239416488865565]
LIDARデータに対する高速な1段3次元物体検出法を提案する。
我々の手法の中核となる新規性は高速かつシングルパスアーキテクチャであり、どちらも3次元の物体を検出し、それらの形状を推定する。
提案手法は,ScanNetシーンのオブジェクト検出で5%,オープンデータセットでは3.4%の精度で結果が得られた。
論文 参考訳(メタデータ) (2020-04-02T17:48:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。