論文の概要: LiMoSeg: Real-time Bird's Eye View based LiDAR Motion Segmentation
- arxiv url: http://arxiv.org/abs/2111.04875v1
- Date: Mon, 8 Nov 2021 23:40:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-10 15:33:47.831144
- Title: LiMoSeg: Real-time Bird's Eye View based LiDAR Motion Segmentation
- Title(参考訳): LiMoSeg:リアルタイムバードアイビューベースのLiDARモーションセグメンテーション
- Authors: Sambit Mohapatra, Mona Hodaei, Senthil Yogamani, Stefan Milz, Patrick
Maeder, Heinrich Gotzig, Martin Simon, Hazem Rashed
- Abstract要約: 本稿では,光検出・ラング(LiDAR)データの動作セグメント化のための新しいリアルタイムアーキテクチャを提案する。
我々は2D Birdのアイビュー表現における2つの連続したLiDARデータをスキャンし、静的または移動としてピクセルワイズ分類を行う。
Nvidia Jetson Xavierという,一般的に使用されている自動車組み込みプラットフォーム上では,低レイテンシの8ミリ秒を実証する。
- 参考スコア(独自算出の注目度): 8.184561295177623
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Moving object detection and segmentation is an essential task in the
Autonomous Driving pipeline. Detecting and isolating static and moving
components of a vehicle's surroundings are particularly crucial in path
planning and localization tasks. This paper proposes a novel real-time
architecture for motion segmentation of Light Detection and Ranging (LiDAR)
data. We use two successive scans of LiDAR data in 2D Bird's Eye View (BEV)
representation to perform pixel-wise classification as static or moving.
Furthermore, we propose a novel data augmentation technique to reduce the
significant class imbalance between static and moving objects. We achieve this
by artificially synthesizing moving objects by cutting and pasting static
vehicles. We demonstrate a low latency of 8 ms on a commonly used automotive
embedded platform, namely Nvidia Jetson Xavier. To the best of our knowledge,
this is the first work directly performing motion segmentation in LiDAR BEV
space. We provide quantitative results on the challenging SemanticKITTI
dataset, and qualitative results are provided in https://youtu.be/2aJ-cL8b0LI.
- Abstract(参考訳): 移動物体の検出とセグメンテーションは、自動運転パイプラインにおいて不可欠なタスクである。
車両の周囲の静的および移動成分の検出と分離は、特に経路計画および局所化タスクにおいて重要である。
本稿では,光検出・ラング(LiDAR)データの動作セグメント化のための新しいリアルタイムアーキテクチャを提案する。
2D Bird's Eye View (BEV) 表現における2つの連続したLiDARデータのスキャンを用いて、静的または移動的なピクセルワイド分類を行う。
さらに,静的オブジェクトと移動オブジェクト間の重要なクラス不均衡を低減するために,新しいデータ拡張手法を提案する。
静的車両を切断・貼付することで移動物体を人工的に合成する。
一般的な自動車組み込みプラットフォームであるNvidia Jetson Xavierでは,低レイテンシの8ミリ秒を実証した。
我々の知る限りでは、これはLiDAR BEV空間でモーションセグメンテーションを直接実行する最初の作品である。
課題であるSemanticKITTIデータセットの定量的結果を提供し、https://youtu.be/2aJ-cL8b0LIで定性的な結果を提供する。
関連論文リスト
- CV-MOS: A Cross-View Model for Motion Segmentation [13.378850442525945]
本稿では,移動物体セグメンテーションのためのクロスビューモデルCV-MOSを紹介する。
BEV と RV の残差マップから動きを捉えることで空間時空間情報を分離する。
提案手法は,SemanticKittiデータセットの検証とテストセットにおいて,IoU(%)スコアが77.5%,79.2%に達した。
論文 参考訳(メタデータ) (2024-08-25T09:39:26Z) - TK-Planes: Tiered K-Planes with High Dimensional Feature Vectors for Dynamic UAV-based Scenes [58.180556221044235]
本研究では,無人航空機(UAV)の認識における合成データと実世界データとの領域ギャップを埋める新しい手法を提案する。
私たちの定式化は、小さな動く物体や人間の行動からなる動的なシーンのために設計されています。
我々は,Okutama ActionやUG2など,挑戦的なデータセットの性能を評価する。
論文 参考訳(メタデータ) (2024-05-04T21:55:33Z) - MotionBEV: Attention-Aware Online LiDAR Moving Object Segmentation with
Bird's Eye View based Appearance and Motion Features [5.186531650935954]
我々は、LiDAR移動物体セグメンテーションのための高速かつ正確なフレームワークであるMotionBEVを紹介する。
提案手法では,3次元LiDARスキャンを2次元極性BEV表現に変換し,計算効率を向上させる。
我々は、外観・動作特徴からLiDAR時間情報を適応的に融合させるために、AMCM(Adearance-Motion Co-attention Module)でブリッジされたデュアルブランチネットワークを使用する。
論文 参考訳(メタデータ) (2023-05-12T09:28:09Z) - Event-Free Moving Object Segmentation from Moving Ego Vehicle [88.33470650615162]
動的シーンにおけるオブジェクトセグメンテーション(MOS)の移動は、自律運転において重要で困難だが、未調査の研究テーマである。
ほとんどのセグメンテーション法は、光学フローマップから得られるモーションキューを利用する。
我々は,光学的フローに頼らずにリッチなモーションキューを提供する,より優れた映像理解のためのイベントカメラを活用することを提案する。
論文 参考訳(メタデータ) (2023-04-28T23:43:10Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - Efficient Spatial-Temporal Information Fusion for LiDAR-Based 3D Moving
Object Segmentation [23.666607237164186]
本稿では,LiDAR-MOSの性能向上のために,空間時空間情報とLiDARスキャンの異なる表現モダリティを併用した新しいディープニューラルネットワークを提案する。
具体的には、まず、空間情報と時間情報とを別々に扱うために、レンジ画像に基づくデュアルブランチ構造を用いる。
また、3次元スパース畳み込みによるポイントリファインメントモジュールを使用して、LiDAR範囲の画像とポイントクラウド表現の両方からの情報を融合する。
論文 参考訳(メタデータ) (2022-07-05T17:59:17Z) - LiDAR-based 4D Panoptic Segmentation via Dynamic Shifting Network [56.71765153629892]
本稿では,ポイントクラウド領域における効果的な単視分割フレームワークとして機能する動的シフトネットワーク(DS-Net)を提案する。
提案するDS-Netは,両タスクの現在の最先端手法よりも優れた精度を実現する。
DS-Netを4次元パノプティカルLiDARセグメンテーションに拡張し、一列のLiDARフレーム上で時間的に統一されたインスタンスクラスタリングを行う。
論文 参考訳(メタデータ) (2022-03-14T15:25:42Z) - BEV-MODNet: Monocular Camera based Bird's Eye View Moving Object
Detection for Autonomous Driving [2.9769485817170387]
CNNは、現場のグローバルコンテキストを活用して、より良いプロジェクトを作成することができる。
我々は、BEV空間内で5つのクラスを移動するオブジェクトマスクのアノテーションを備えた12.9k画像からなる拡張KITTI-rawデータセットを作成する。
簡単なベースライン実装を用いてmIoUの13%の大幅な改善を観測した。
論文 参考訳(メタデータ) (2021-07-11T01:11:58Z) - LiDAR-based Panoptic Segmentation via Dynamic Shifting Network [56.71765153629892]
LiDARベースのパノプティカルセグメンテーションは、オブジェクトとシーンを統一的に解析することを目的としている。
本稿では,ポイントクラウド領域における効果的な単視分割フレームワークとして機能する動的シフトネットワーク(DS-Net)を提案する。
提案するDS-Netは,現在の最先端手法よりも優れた精度を実現する。
論文 参考訳(メタデータ) (2020-11-24T08:44:46Z) - Recovering and Simulating Pedestrians in the Wild [81.38135735146015]
本研究では,自動車の走行によって野生で捕獲されたセンサから歩行者の形状と動きを復元することを提案する。
再建された歩行者資産銀行をリアルな3Dシミュレーションシステムに組み込む。
シミュレーションしたLiDARデータを用いて,視覚知覚タスクに必要な実世界のデータ量を大幅に削減できることを示す。
論文 参考訳(メタデータ) (2020-11-16T17:16:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。