論文の概要: Semantics-Guided Moving Object Segmentation with 3D LiDAR
- arxiv url: http://arxiv.org/abs/2205.03186v1
- Date: Fri, 6 May 2022 12:59:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-09 13:51:31.497557
- Title: Semantics-Guided Moving Object Segmentation with 3D LiDAR
- Title(参考訳): 3次元LiDARを用いた意味誘導型移動物体セグメンテーション
- Authors: Shuo Gu, Suling Yao, Jian Yang and Hui Kong
- Abstract要約: 移動オブジェクトセグメンテーション(Motion Object segmentation, MOS)は、移動オブジェクトを周囲の静的環境から区別するタスクである。
本研究では,物体のセグメンテーションを行うためのセマンティクス誘導畳み込みニューラルネットワークを提案する。
- 参考スコア(独自算出の注目度): 32.84782551737681
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Moving object segmentation (MOS) is a task to distinguish moving objects,
e.g., moving vehicles and pedestrians, from the surrounding static environment.
The segmentation accuracy of MOS can have an influence on odometry, map
construction, and planning tasks. In this paper, we propose a semantics-guided
convolutional neural network for moving object segmentation. The network takes
sequential LiDAR range images as inputs. Instead of segmenting the moving
objects directly, the network conducts single-scan-based semantic segmentation
and multiple-scan-based moving object segmentation in turn. The semantic
segmentation module provides semantic priors for the MOS module, where we
propose an adjacent scan association (ASA) module to convert the semantic
features of adjacent scans into the same coordinate system to fully exploit the
cross-scan semantic features. Finally, by analyzing the difference between the
transformed features, reliable MOS result can be obtained quickly. Experimental
results on the SemanticKITTI MOS dataset proves the effectiveness of our work.
- Abstract(参考訳): 移動対象セグメンテーション(moving object segmentation, mos)は、移動車両や歩行者などの移動対象を、周囲の静環境から区別するタスクである。
MOSのセグメンテーション精度は、オドメトリー、マップ構築、計画タスクに影響を及ぼす可能性がある。
本稿では,オブジェクトセグメント移動のためのセマンティクス誘導畳み込みニューラルネットワークを提案する。
ネットワークは、連続したLiDARレンジ画像を入力として取り込む。
移動対象を直接セグメンテーションする代わりに、ネットワークはシングルスキャンベースのセグメンテーションとマルチスキャンベースの移動対象セグメンテーションを実行する。
セマンティックセグメンテーションモジュールは,MOSモジュールのセマンティックプリミティブを提供し,隣接するスキャンのセマンティック特徴を同一座標系に変換し,クロススキャンのセマンティック特徴を完全に活用するための隣接スキャンアソシエーション(ASA)モジュールを提案する。
最後に、変換された特徴間の差異を分析することにより、信頼性の高いMOS結果が迅速に得られる。
SemanticKITTI MOSデータセットの実験結果から,本研究の有効性が確認された。
関連論文リスト
- RISeg: Robot Interactive Object Segmentation via Body Frame-Invariant
Features [6.358423536732677]
本稿では,ロボットインタラクションとデザインされたボディーフレーム不変機能を用いて,不正確なセグメンテーションを補正する新しい手法を提案する。
オブジェクト分割精度を平均80.7%とすることで、散らばったシーンを正確にセグメント化するための対話型知覚パイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2024-03-04T05:03:24Z) - SeMoLi: What Moves Together Belongs Together [51.72754014130369]
動作手がかりに基づく半教師付き物体検出に挑戦する。
近年,移動物体の擬似ラベルインスタンスに対して,動きに基づくクラスタリング手法が適用可能であることが示唆された。
我々は、このアプローチを再考し、オブジェクト検出とモーションインスパイアされた擬似ラベルの両方が、データ駆動方式で取り組めることを示唆する。
論文 参考訳(メタデータ) (2024-02-29T18:54:53Z) - Graph Information Bottleneck for Remote Sensing Segmentation [8.879224757610368]
本稿では、画像をグラフ構造として扱い、リモートセンシングセグメンテーションのための単純なコントラスト視覚GNNアーキテクチャを提案する。
具体的には,ノードマップとエッジマップのグラフビューを構築し,最適なグラフ構造表現を得る。
UNetの畳み込みモジュールをSC-ViGモジュールに置き換え、セグメンテーションと分類タスクを完成させる。
論文 参考訳(メタデータ) (2023-12-05T07:23:22Z) - Event-Free Moving Object Segmentation from Moving Ego Vehicle [88.33470650615162]
動的シーンにおけるオブジェクトセグメンテーション(MOS)の移動は、自律運転において重要で困難だが、未調査の研究テーマである。
ほとんどのセグメンテーション法は、光学フローマップから得られるモーションキューを利用する。
我々は,光学的フローに頼らずにリッチなモーションキューを提供する,より優れた映像理解のためのイベントカメラを活用することを提案する。
論文 参考訳(メタデータ) (2023-04-28T23:43:10Z) - Semi-Weakly Supervised Object Kinematic Motion Prediction [56.282759127180306]
3Dオブジェクトが与えられた場合、運動予測は移動部と対応する運動パラメータを識別することを目的としている。
階層的部分分割と移動部パラメータのマップを学習するグラフニューラルネットワークを提案する。
ネットワーク予測は、擬似ラベル付き移動情報を持つ大規模な3Dオブジェクトを生成する。
論文 参考訳(メタデータ) (2023-03-31T02:37:36Z) - Self-supervised Pre-training for Semantic Segmentation in an Indoor
Scene [8.357801312689622]
本稿ではセグメンテーションモデルの自己教師型事前学習手法であるRegConsistを提案する。
我々は,対象環境におけるRGBビューからのセマンティックセグメンテーションを予測するために,コントラスト学習の変種を用いてDCNNモデルを訓練する。
提案手法は、ImageNetで事前訓練されたモデルよりも優れており、全く同じタスクでトレーニングされたモデルと異なるデータセットでトレーニングされたモデルを使用する場合の競合性能を実現する。
論文 参考訳(メタデータ) (2022-10-04T20:10:14Z) - Segmenting Moving Objects via an Object-Centric Layered Representation [100.26138772664811]
深層表現を用いたオブジェクト中心セグメンテーションモデルを提案する。
複数のオブジェクトで合成トレーニングデータを生成するスケーラブルなパイプラインを導入する。
標準的なビデオセグメンテーションベンチマークでモデルを評価する。
論文 参考訳(メタデータ) (2022-07-05T17:59:43Z) - Spatio-Temporal Multi-Task Learning Transformer for Joint Moving Object
Detection and Segmentation [0.0]
本稿では,トランスフォーマーをベースとしたマルチタスク学習アーキテクチャを提案する。
我々は、初期共有エンコーダと後期共有エンコーダデコーダトランスの両方を用いて、個別タスクアーキテクチャとMLLセットアップの性能を評価する。
論文 参考訳(メタデータ) (2021-06-21T20:30:44Z) - DyStaB: Unsupervised Object Segmentation via Dynamic-Static
Bootstrapping [72.84991726271024]
我々は,コヒーレントなシーン全体を移動しているように見えるシーンの画像の一部を検出し,分割するための教師なしの手法について述べる。
提案手法はまず,セグメント間の相互情報を最小化することにより,運動場を分割する。
セグメントを使用してオブジェクトモデルを学習し、静的なイメージの検出に使用することができる。
論文 参考訳(メタデータ) (2020-08-16T22:05:13Z) - Fast Video Object Segmentation With Temporal Aggregation Network and
Dynamic Template Matching [67.02962970820505]
ビデオオブジェクト(VOS)に「トラッキング・バイ・検出」を導入する。
本稿では,時間的アグリゲーションネットワークと動的時間進化テンプレートマッチング機構を提案する。
我々は,DAVISベンチマークで1フレームあたり0.14秒,J&Fで75.9%の速度で,複雑なベルとホイッスルを伴わずに,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2020-07-11T05:44:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。