論文の概要: MOVES: Movable and Moving LiDAR Scene Segmentation in Label-Free
settings using Static Reconstruction
- arxiv url: http://arxiv.org/abs/2306.14812v2
- Date: Sun, 15 Oct 2023 06:17:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-18 04:40:00.736016
- Title: MOVES: Movable and Moving LiDAR Scene Segmentation in Label-Free
settings using Static Reconstruction
- Title(参考訳): MOVES:静的再構成を用いたラベルフリー環境での移動可能なLiDARシーンセグメンテーション
- Authors: Prashant Kumar, Dhruv Makwana, Onkar Susladkar, Anurag Mittal, Prem
Kumar Kalra
- Abstract要約: 本稿では,GANをベースとした新たな対向モデルMOVESについて述べる。
我々は、動的LiDARスキャンを対応する静的スキャンに正確に変換することで、これを実現する。
- 参考スコア(独自算出の注目度): 7.183483982542307
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Accurate static structure reconstruction and segmentation of non-stationary
objects is of vital importance for autonomous navigation applications. These
applications assume a LiDAR scan to consist of only static structures. In the
real world however, LiDAR scans consist of non-stationary dynamic structures -
moving and movable objects. Current solutions use segmentation information to
isolate and remove moving structures from LiDAR scan. This strategy fails in
several important use-cases where segmentation information is not available. In
such scenarios, moving objects and objects with high uncertainty in their
motion i.e. movable objects, may escape detection. This violates the above
assumption. We present MOVES, a novel GAN based adversarial model that segments
out moving as well as movable objects in the absence of segmentation
information. We achieve this by accurately transforming a dynamic LiDAR scan to
its corresponding static scan. This is obtained by replacing dynamic objects
and corresponding occlusions with static structures which were occluded by
dynamic objects. We leverage corresponding static-dynamic LiDAR pairs.
- Abstract(参考訳): 非定常物体の正確な静的構造再構成とセグメンテーションは、自律ナビゲーションアプリケーションにとって極めて重要である。
これらのアプリケーションは、LiDARスキャンを静的構造のみからなるものと仮定する。
しかし実世界では、LiDARスキャンは静止しない動的構造体と可動物体からなる。
現在のソリューションでは、セグメント情報を使用して、LiDARスキャンから移動構造を分離、削除している。
この戦略は、セグメンテーション情報が利用できないいくつかの重要なユースケースで失敗する。
このようなシナリオでは、移動物体や物体の運動の不確実性が高い移動物体は検出から逃れることができる。
これは上記の前提に反する。
我々は, 移動物体だけでなく, 移動物体もセグメント化情報なしでセグメントアウトする, 新たなganベースの逆モデルであるmovesを提案する。
我々は、動的LiDARスキャンを対応する静的スキャンに正確に変換することで、これを実現する。
これは動的オブジェクトと対応するオクルージョンを、動的オブジェクトによってオクルードされた静的構造に置き換えることで得られる。
対応する静的なLiDAR対を利用する。
関連論文リスト
- UNION: Unsupervised 3D Object Detection using Object Appearance-based Pseudo-Classes [2.7855886538423182]
教師なしの3Dオブジェクト検出手法が登場し、トレーニングに手動ラベルを必要とせずに膨大な量のデータを活用するようになった。
最近のアプローチでは、モバイルオブジェクトの検出を学習するために動的オブジェクトに依存しているが、トレーニング中に静的インスタンスの検出をペナルティ化している。
我々は空間クラスタリングと自己監督型シーンフローを用いて、LiDARから静的および動的オブジェクトの提案セットを得る。
その結果、静的および動的移動物体が一緒に得られ、既存の検出器は単一の訓練で訓練することができる。
論文 参考訳(メタデータ) (2024-05-24T16:27:05Z) - Event-Free Moving Object Segmentation from Moving Ego Vehicle [88.33470650615162]
動的シーンにおけるオブジェクトセグメンテーション(MOS)の移動は、自律運転において重要で困難だが、未調査の研究テーマである。
ほとんどのセグメンテーション法は、光学フローマップから得られるモーションキューを利用する。
我々は,光学的フローに頼らずにリッチなモーションキューを提供する,より優れた映像理解のためのイベントカメラを活用することを提案する。
論文 参考訳(メタデータ) (2023-04-28T23:43:10Z) - DORT: Modeling Dynamic Objects in Recurrent for Multi-Camera 3D Object
Detection and Tracking [67.34803048690428]
本稿では、この問題を解決するためにRecurrenT(DORT)の動的オブジェクトをモデル化することを提案する。
DORTは、重い計算負担を軽減する動き推定のために、オブジェクトワイズローカルボリュームを抽出する。
フレキシブルで実用的で、ほとんどのカメラベースの3Dオブジェクト検出器に差し込むことができる。
論文 参考訳(メタデータ) (2023-03-29T12:33:55Z) - InstMove: Instance Motion for Object-centric Video Segmentation [70.16915119724757]
本研究では,オブジェクト中心ビデオのインスタンス・モーションを表すInstMoveとインスタンス・レベル・モーションについて検討する。
InstMoveは主に画像特徴の埋め込みのないインスタンスレベルのモーション情報に依存している。
数行のコードだけで、InstMoveは3つの異なるビデオセグメンテーションタスクのために、現在のSOTAメソッドに統合できる。
論文 参考訳(メタデータ) (2023-03-14T17:58:44Z) - Unsupervised Multi-object Segmentation by Predicting Probable Motion
Patterns [92.80981308407098]
手動による監督なしに複数の画像オブジェクトを分割する手法を提案する。
この方法は静止画像からオブジェクトを抽出するが、監視のためにビデオを使用する。
シミュレーションおよび実世界のベンチマークで、最先端の教師なしオブジェクトセグメンテーション性能を示す。
論文 参考訳(メタデータ) (2022-10-21T17:57:05Z) - Semantics-Guided Moving Object Segmentation with 3D LiDAR [32.84782551737681]
移動オブジェクトセグメンテーション(Motion Object segmentation, MOS)は、移動オブジェクトを周囲の静的環境から区別するタスクである。
本研究では,物体のセグメンテーションを行うためのセマンティクス誘導畳み込みニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-05-06T12:59:54Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z) - LiMoSeg: Real-time Bird's Eye View based LiDAR Motion Segmentation [8.184561295177623]
本稿では,光検出・ラング(LiDAR)データの動作セグメント化のための新しいリアルタイムアーキテクチャを提案する。
我々は2D Birdのアイビュー表現における2つの連続したLiDARデータをスキャンし、静的または移動としてピクセルワイズ分類を行う。
Nvidia Jetson Xavierという,一般的に使用されている自動車組み込みプラットフォーム上では,低レイテンシの8ミリ秒を実証する。
論文 参考訳(メタデータ) (2021-11-08T23:40:55Z) - TSDF++: A Multi-Object Formulation for Dynamic Object Tracking and
Reconstruction [57.1209039399599]
我々は,シーン全体とその中のすべてのオブジェクトに対して,単一のボリュームを維持できるマップ表現を提案する。
複数の動的オブジェクト追跡および再構成シナリオにおいて,本表現は,近接して移動する他のオブジェクトによって一時的にオクルードされても,表面の正確な再構成を維持できる。
提案したTSDF++の定式化を公開合成データセット上で評価し,標準のTSDFマップ表現と比較した場合の閉塞面の復元性を示す。
論文 参考訳(メタデータ) (2021-05-16T16:15:05Z) - ERASOR: Egocentric Ratio of Pseudo Occupancy-based Dynamic Object
Removal for Static 3D Point Cloud Map Building [0.1474723404975345]
本稿では,pSeudo Occupancy-based dynamic object Removal の ERASOR, Egocentric RAtio という新しい静的マップ構築手法を提案する。
私たちのアプローチは、必然的に地面と接触している都市環境における最もダイナミックなオブジェクトの性質にその注意を向けます。
論文 参考訳(メタデータ) (2021-03-07T10:29:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。