論文の概要: Semantics-Guided Moving Object Segmentation with 3D LiDAR
- arxiv url: http://arxiv.org/abs/2205.03186v1
- Date: Fri, 6 May 2022 12:59:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-09 13:51:31.497557
- Title: Semantics-Guided Moving Object Segmentation with 3D LiDAR
- Title(参考訳): 3次元LiDARを用いた意味誘導型移動物体セグメンテーション
- Authors: Shuo Gu, Suling Yao, Jian Yang and Hui Kong
- Abstract要約: 移動オブジェクトセグメンテーション(Motion Object segmentation, MOS)は、移動オブジェクトを周囲の静的環境から区別するタスクである。
本研究では,物体のセグメンテーションを行うためのセマンティクス誘導畳み込みニューラルネットワークを提案する。
- 参考スコア(独自算出の注目度): 32.84782551737681
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Moving object segmentation (MOS) is a task to distinguish moving objects,
e.g., moving vehicles and pedestrians, from the surrounding static environment.
The segmentation accuracy of MOS can have an influence on odometry, map
construction, and planning tasks. In this paper, we propose a semantics-guided
convolutional neural network for moving object segmentation. The network takes
sequential LiDAR range images as inputs. Instead of segmenting the moving
objects directly, the network conducts single-scan-based semantic segmentation
and multiple-scan-based moving object segmentation in turn. The semantic
segmentation module provides semantic priors for the MOS module, where we
propose an adjacent scan association (ASA) module to convert the semantic
features of adjacent scans into the same coordinate system to fully exploit the
cross-scan semantic features. Finally, by analyzing the difference between the
transformed features, reliable MOS result can be obtained quickly. Experimental
results on the SemanticKITTI MOS dataset proves the effectiveness of our work.
- Abstract(参考訳): 移動対象セグメンテーション(moving object segmentation, mos)は、移動車両や歩行者などの移動対象を、周囲の静環境から区別するタスクである。
MOSのセグメンテーション精度は、オドメトリー、マップ構築、計画タスクに影響を及ぼす可能性がある。
本稿では,オブジェクトセグメント移動のためのセマンティクス誘導畳み込みニューラルネットワークを提案する。
ネットワークは、連続したLiDARレンジ画像を入力として取り込む。
移動対象を直接セグメンテーションする代わりに、ネットワークはシングルスキャンベースのセグメンテーションとマルチスキャンベースの移動対象セグメンテーションを実行する。
セマンティックセグメンテーションモジュールは,MOSモジュールのセマンティックプリミティブを提供し,隣接するスキャンのセマンティック特徴を同一座標系に変換し,クロススキャンのセマンティック特徴を完全に活用するための隣接スキャンアソシエーション(ASA)モジュールを提案する。
最後に、変換された特徴間の差異を分析することにより、信頼性の高いMOS結果が迅速に得られる。
SemanticKITTI MOSデータセットの実験結果から,本研究の有効性が確認された。
関連論文リスト
- RISeg: Robot Interactive Object Segmentation via Body Frame-Invariant
Features [6.358423536732677]
本稿では,ロボットインタラクションとデザインされたボディーフレーム不変機能を用いて,不正確なセグメンテーションを補正する新しい手法を提案する。
オブジェクト分割精度を平均80.7%とすることで、散らばったシーンを正確にセグメント化するための対話型知覚パイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2024-03-04T05:03:24Z) - Graph Information Bottleneck for Remote Sensing Segmentation [9.002581063505952]
本稿では、画像をグラフ構造として扱い、リモートセンシングセグメンテーションのための単純なコントラスト視覚GNNアーキテクチャを提案する。
具体的には,ノードマップとエッジマップのグラフビューを構築し,最適なグラフ構造表現を得る。
UNetの畳み込みモジュールをSC-ViGモジュールに置き換え、セグメンテーションと分類タスクを完成させる。
論文 参考訳(メタデータ) (2023-12-05T07:23:22Z) - Semi-Weakly Supervised Object Kinematic Motion Prediction [56.282759127180306]
3Dオブジェクトが与えられた場合、運動予測は移動部と対応する運動パラメータを識別することを目的としている。
階層的部分分割と移動部パラメータのマップを学習するグラフニューラルネットワークを提案する。
ネットワーク予測は、擬似ラベル付き移動情報を持つ大規模な3Dオブジェクトを生成する。
論文 参考訳(メタデータ) (2023-03-31T02:37:36Z) - Location-Aware Self-Supervised Transformers [74.76585889813207]
画像部品の相対的な位置を予測し,セマンティックセグメンテーションのためのネットワークを事前訓練する。
参照パッチのサブセットを問合せのサブセットにマスキングすることで,タスクの難しさを制御します。
実験により,この位置認識事前学習が,いくつかの難解なセマンティックセグメンテーションベンチマークに競合する表現をもたらすことが示された。
論文 参考訳(メタデータ) (2022-12-05T16:24:29Z) - Self-supervised Pre-training for Semantic Segmentation in an Indoor
Scene [8.357801312689622]
本稿ではセグメンテーションモデルの自己教師型事前学習手法であるRegConsistを提案する。
我々は,対象環境におけるRGBビューからのセマンティックセグメンテーションを予測するために,コントラスト学習の変種を用いてDCNNモデルを訓練する。
提案手法は、ImageNetで事前訓練されたモデルよりも優れており、全く同じタスクでトレーニングされたモデルと異なるデータセットでトレーニングされたモデルを使用する場合の競合性能を実現する。
論文 参考訳(メタデータ) (2022-10-04T20:10:14Z) - Segmenting Moving Objects via an Object-Centric Layered Representation [100.26138772664811]
深層表現を用いたオブジェクト中心セグメンテーションモデルを提案する。
複数のオブジェクトで合成トレーニングデータを生成するスケーラブルなパイプラインを導入する。
標準的なビデオセグメンテーションベンチマークでモデルを評価する。
論文 参考訳(メタデータ) (2022-07-05T17:59:43Z) - The Emergence of Objectness: Learning Zero-Shot Segmentation from Videos [59.12750806239545]
動画は移動成分によって同じシーンを異なる視点で見ることができ、適切な領域分割と領域フローは相互のビュー合成を可能にする。
モデルでは,1枚の画像に対して特徴に基づく領域分割を出力する出現経路と,1枚の画像に対して動作特徴を出力する動き経路の2つの経路から開始する。
セグメントフローに基づく視線合成誤差を最小限に抑えるためにモデルを訓練することにより、我々の外観経路と運動経路は、それぞれ低レベルのエッジや光フローから構築することなく、領域のセグメンテーションとフロー推定を自動的に学習する。
論文 参考訳(メタデータ) (2021-11-11T18:59:11Z) - Spatio-Temporal Multi-Task Learning Transformer for Joint Moving Object
Detection and Segmentation [0.0]
本稿では,トランスフォーマーをベースとしたマルチタスク学習アーキテクチャを提案する。
我々は、初期共有エンコーダと後期共有エンコーダデコーダトランスの両方を用いて、個別タスクアーキテクチャとMLLセットアップの性能を評価する。
論文 参考訳(メタデータ) (2021-06-21T20:30:44Z) - DyStaB: Unsupervised Object Segmentation via Dynamic-Static
Bootstrapping [72.84991726271024]
我々は,コヒーレントなシーン全体を移動しているように見えるシーンの画像の一部を検出し,分割するための教師なしの手法について述べる。
提案手法はまず,セグメント間の相互情報を最小化することにより,運動場を分割する。
セグメントを使用してオブジェクトモデルを学習し、静的なイメージの検出に使用することができる。
論文 参考訳(メタデータ) (2020-08-16T22:05:13Z) - Fast Video Object Segmentation With Temporal Aggregation Network and
Dynamic Template Matching [67.02962970820505]
ビデオオブジェクト(VOS)に「トラッキング・バイ・検出」を導入する。
本稿では,時間的アグリゲーションネットワークと動的時間進化テンプレートマッチング機構を提案する。
我々は,DAVISベンチマークで1フレームあたり0.14秒,J&Fで75.9%の速度で,複雑なベルとホイッスルを伴わずに,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2020-07-11T05:44:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。