論文の概要: MOVESe: MOVablE and Moving LiDAR Scene Segmentation with Improved
Navigation in Seg-label free settings
- arxiv url: http://arxiv.org/abs/2306.14812v1
- Date: Mon, 26 Jun 2023 16:16:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 12:49:43.033337
- Title: MOVESe: MOVablE and Moving LiDAR Scene Segmentation with Improved
Navigation in Seg-label free settings
- Title(参考訳): movee:seg-labelフリー設定でナビゲーションを改善した移動型lidarシーンセグメンテーション
- Authors: Prashant Kumar, Onkar Susladkar, Dhruv Makwana, Anurag Mittal, Prem
Kumar Kalra
- Abstract要約: 本稿では,静的なシーンを生成することによって,移動物体をセグメント化する学習手法を提案する。
本モデルは,3つのデータセットを用いた静的LiDAR再構成における既存のベースラインよりも優れている。
我々のモデルによって検出された可動物体は、ナビゲーションを支援するために下流の3D検出器に供給することができる。
- 参考スコア(独自算出の注目度): 7.982329399845733
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Accurate detection of movable and moving objects in LiDAR is of vital
importance for navigation. Most existing works focus on extracting and removing
moving objects during navigation. Movable objects like pedestrians, parked
vehicles, etc. although static may move in the future. This leads to erroneous
navigation and accidents. In such cases, it becomes necessary to detect
potentially movable objects. To this end, we present a learning-based approach
that segments movable and moving objects by generating static parts of scenes
that are otherwise occluded. Our model performs superior to existing baselines
on static LiDAR reconstructions using 3 datasets including a challenging sparse
industrial dataset. We achieve this without the assistance of any segmentation
labels because such labels might not always be available for less popular yet
important settings like industrial environments. The non-movable static parts
of the scene generated by our model are of vital importance for downstream
navigation for SLAM. The movable objects detected by our model can be fed to a
downstream 3D detector for aiding navigation. Though we do not use
segmentation, we evaluate our method against navigation baselines that use it
to remove dynamic objects for SLAM. Through extensive experiments on several
datasets, we showcase that our model surpasses these baselines on navigation.
- Abstract(参考訳): LiDARにおける移動物体の正確な検出はナビゲーションにとって極めて重要である。
既存の作品のほとんどは、ナビゲーション中に動くオブジェクトの抽出と削除に焦点を当てている。
歩行者、駐車中の車両などの移動可能な物体は、将来的には移動することができる。
これは誤った航法や事故につながる。
このような場合、潜在的に可動な物体を検出する必要がある。
そこで,本研究では,動画像の静的部分を生成することにより,動画像と動画像のセグメント化を行う学習ベースの手法を提案する。
本モデルは3つのデータセットを用いた静的LiDAR再構成における既存のベースラインよりも優れている。
このようなラベルは、産業環境のようなあまり人気がなく重要な設定では必ずしも利用できないため、セグメンテーションラベルの助けなしに実現しています。
本モデルで生成したシーンの非移動可能な静的部分は,slamの下流ナビゲーションにおいて極めて重要である。
このモデルによって検出された移動物体は下流の3d検出器に供給され、ナビゲーションを支援する。
セグメンテーションは使用していないが、SLAMの動的オブジェクトを除去するために使用するナビゲーションベースラインに対して評価を行う。
いくつかのデータセットに関する広範囲な実験を通じて、我々のモデルがナビゲーションのベースラインを超えることを示した。
関連論文リスト
- UNION: Unsupervised 3D Object Detection using Object Appearance-based Pseudo-Classes [2.7855886538423182]
教師なしの3Dオブジェクト検出手法が登場し、トレーニングに手動ラベルを必要とせずに膨大な量のデータを活用するようになった。
最近のアプローチでは、モバイルオブジェクトの検出を学習するために動的オブジェクトに依存しているが、トレーニング中に静的インスタンスの検出をペナルティ化している。
我々は空間クラスタリングと自己監督型シーンフローを用いて、LiDARから静的および動的オブジェクトの提案セットを得る。
その結果、静的および動的移動物体が一緒に得られ、既存の検出器は単一の訓練で訓練することができる。
論文 参考訳(メタデータ) (2024-05-24T16:27:05Z) - Event-Free Moving Object Segmentation from Moving Ego Vehicle [88.33470650615162]
動的シーンにおけるオブジェクトセグメンテーション(MOS)の移動は、自律運転において重要で困難だが、未調査の研究テーマである。
ほとんどのセグメンテーション法は、光学フローマップから得られるモーションキューを利用する。
我々は,光学的フローに頼らずにリッチなモーションキューを提供する,より優れた映像理解のためのイベントカメラを活用することを提案する。
論文 参考訳(メタデータ) (2023-04-28T23:43:10Z) - DORT: Modeling Dynamic Objects in Recurrent for Multi-Camera 3D Object
Detection and Tracking [67.34803048690428]
本稿では、この問題を解決するためにRecurrenT(DORT)の動的オブジェクトをモデル化することを提案する。
DORTは、重い計算負担を軽減する動き推定のために、オブジェクトワイズローカルボリュームを抽出する。
フレキシブルで実用的で、ほとんどのカメラベースの3Dオブジェクト検出器に差し込むことができる。
論文 参考訳(メタデータ) (2023-03-29T12:33:55Z) - InstMove: Instance Motion for Object-centric Video Segmentation [70.16915119724757]
本研究では,オブジェクト中心ビデオのインスタンス・モーションを表すInstMoveとインスタンス・レベル・モーションについて検討する。
InstMoveは主に画像特徴の埋め込みのないインスタンスレベルのモーション情報に依存している。
数行のコードだけで、InstMoveは3つの異なるビデオセグメンテーションタスクのために、現在のSOTAメソッドに統合できる。
論文 参考訳(メタデータ) (2023-03-14T17:58:44Z) - Unsupervised Multi-object Segmentation by Predicting Probable Motion
Patterns [92.80981308407098]
手動による監督なしに複数の画像オブジェクトを分割する手法を提案する。
この方法は静止画像からオブジェクトを抽出するが、監視のためにビデオを使用する。
シミュレーションおよび実世界のベンチマークで、最先端の教師なしオブジェクトセグメンテーション性能を示す。
論文 参考訳(メタデータ) (2022-10-21T17:57:05Z) - Semantics-Guided Moving Object Segmentation with 3D LiDAR [32.84782551737681]
移動オブジェクトセグメンテーション(Motion Object segmentation, MOS)は、移動オブジェクトを周囲の静的環境から区別するタスクである。
本研究では,物体のセグメンテーションを行うためのセマンティクス誘導畳み込みニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-05-06T12:59:54Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z) - LiMoSeg: Real-time Bird's Eye View based LiDAR Motion Segmentation [8.184561295177623]
本稿では,光検出・ラング(LiDAR)データの動作セグメント化のための新しいリアルタイムアーキテクチャを提案する。
我々は2D Birdのアイビュー表現における2つの連続したLiDARデータをスキャンし、静的または移動としてピクセルワイズ分類を行う。
Nvidia Jetson Xavierという,一般的に使用されている自動車組み込みプラットフォーム上では,低レイテンシの8ミリ秒を実証する。
論文 参考訳(メタデータ) (2021-11-08T23:40:55Z) - TSDF++: A Multi-Object Formulation for Dynamic Object Tracking and
Reconstruction [57.1209039399599]
我々は,シーン全体とその中のすべてのオブジェクトに対して,単一のボリュームを維持できるマップ表現を提案する。
複数の動的オブジェクト追跡および再構成シナリオにおいて,本表現は,近接して移動する他のオブジェクトによって一時的にオクルードされても,表面の正確な再構成を維持できる。
提案したTSDF++の定式化を公開合成データセット上で評価し,標準のTSDFマップ表現と比較した場合の閉塞面の復元性を示す。
論文 参考訳(メタデータ) (2021-05-16T16:15:05Z) - ERASOR: Egocentric Ratio of Pseudo Occupancy-based Dynamic Object
Removal for Static 3D Point Cloud Map Building [0.1474723404975345]
本稿では,pSeudo Occupancy-based dynamic object Removal の ERASOR, Egocentric RAtio という新しい静的マップ構築手法を提案する。
私たちのアプローチは、必然的に地面と接触している都市環境における最もダイナミックなオブジェクトの性質にその注意を向けます。
論文 参考訳(メタデータ) (2021-03-07T10:29:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。