論文の概要: MF-MOS: A Motion-Focused Model for Moving Object Segmentation
- arxiv url: http://arxiv.org/abs/2401.17023v1
- Date: Tue, 30 Jan 2024 13:55:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-31 14:54:56.539018
- Title: MF-MOS: A Motion-Focused Model for Moving Object Segmentation
- Title(参考訳): MF-MOS:移動物体セグメンテーションのための運動焦点モデル
- Authors: Jintao Cheng, Kang Zeng, Zhuoxu Huang, Xiaoyu Tang, Jin Wu, Chengxi
Zhang, Xieyuanli Chen, Rui Fan
- Abstract要約: 移動オブジェクトセグメンテーション(MOS)は、トラフィック参加者を検出する信頼性の高いソリューションを提供する。
これまでの方法では、レンジ画像から直接動きの特徴をキャプチャする。
We propose MF-MOS, a novel motion- focused model with a dual-branch structure for LiDAR moving object segmentation。
- 参考スコア(独自算出の注目度): 10.533968185642415
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Moving object segmentation (MOS) provides a reliable solution for detecting
traffic participants and thus is of great interest in the autonomous driving
field. Dynamic capture is always critical in the MOS problem. Previous methods
capture motion features from the range images directly. Differently, we argue
that the residual maps provide greater potential for motion information, while
range images contain rich semantic guidance. Based on this intuition, we
propose MF-MOS, a novel motion-focused model with a dual-branch structure for
LiDAR moving object segmentation. Novelly, we decouple the spatial-temporal
information by capturing the motion from residual maps and generating semantic
features from range images, which are used as movable object guidance for the
motion branch. Our straightforward yet distinctive solution can make the most
use of both range images and residual maps, thus greatly improving the
performance of the LiDAR-based MOS task. Remarkably, our MF-MOS achieved a
leading IoU of 76.7% on the MOS leaderboard of the SemanticKITTI dataset upon
submission, demonstrating the current state-of-the-art performance. The
implementation of our MF-MOS has been released at
https://github.com/SCNU-RISLAB/MF-MOS.
- Abstract(参考訳): 移動対象セグメンテーション(MOS)は、交通参加者を検出するための信頼性の高いソリューションを提供するため、自動運転分野に大きな関心がある。
動的キャプチャは常にMOS問題において重要である。
従来の手法では、距離画像から直接動作特徴をキャプチャする。
異なる点として、残余写像は動き情報に対してより大きなポテンシャルを与えるが、レンジ画像は豊かな意味指導を含む。
この直感に基づいて,LDAR移動物体セグメンテーションのための2分岐構造を持つ動き中心モデル MF-MOS を提案する。
新たに,静止地図からの移動を捉えることで空間時空間情報を分離し,移動枝の移動誘導として使用する範囲画像から意味的特徴を生成する。
当社の単純で独特なソリューションは、レンジイメージと残留マップの両方を最大限に活用できるため、lidarベースのmosタスクの性能が大幅に向上します。
注目すべきことに、我々のMF-MOSは、提出されたSemanticKITTIデータセットのMOSリーダーボードで76.7%のリードIoUを達成した。
MF-MOSの実装はhttps://github.com/SCNU-RISLAB/MF-MOSで公開された。
関連論文リスト
- CV-MOS: A Cross-View Model for Motion Segmentation [13.378850442525945]
本稿では,移動物体セグメンテーションのためのクロスビューモデルCV-MOSを紹介する。
BEV と RV の残差マップから動きを捉えることで空間時空間情報を分離する。
提案手法は,SemanticKittiデータセットの検証とテストセットにおいて,IoU(%)スコアが77.5%,79.2%に達した。
論文 参考訳(メタデータ) (2024-08-25T09:39:26Z) - MV-MOS: Multi-View Feature Fusion for 3D Moving Object Segmentation [4.386035726986601]
3D-to-2Dプロジェクションにおける動作と意味的特徴の有効活用と情報損失の回避は依然として重要な課題である。
点雲の異なる2次元表現からモーションセマンティックな特徴を融合させることにより,新しい多視点MOSモデル(MV-MOS)を提案する。
提案するマルチブランチ融合MOSフレームワークの有効性を総合実験により検証した。
論文 参考訳(メタデータ) (2024-08-20T07:30:00Z) - MambaMOS: LiDAR-based 3D Moving Object Segmentation with Motion-aware State Space Model [15.418115686945056]
LiDARベースの移動物体(MOS)は、前回のスキャンからの動き情報を用いて、現在のスキャンの点雲における移動物体の特定と分割を目的としている。
MambaMOSと呼ばれる動き認識状態空間モデルを用いた新しいLiDARベースの3D移動物体を提案する。
論文 参考訳(メタデータ) (2024-04-19T11:17:35Z) - Delving into Motion-Aware Matching for Monocular 3D Object Tracking [81.68608983602581]
異なる時間軸に沿った物体の運動キューが3次元多物体追跡において重要であることが判明した。
3つの動き認識コンポーネントからなるフレームワークであるMoMA-M3Tを提案する。
我々はnuScenesとKITTIデータセットに関する広範な実験を行い、MoMA-M3Tが最先端の手法と競合する性能を発揮することを実証した。
論文 参考訳(メタデータ) (2023-08-22T17:53:58Z) - MotionBEV: Attention-Aware Online LiDAR Moving Object Segmentation with
Bird's Eye View based Appearance and Motion Features [5.186531650935954]
我々は、LiDAR移動物体セグメンテーションのための高速かつ正確なフレームワークであるMotionBEVを紹介する。
提案手法では,3次元LiDARスキャンを2次元極性BEV表現に変換し,計算効率を向上させる。
我々は、外観・動作特徴からLiDAR時間情報を適応的に融合させるために、AMCM(Adearance-Motion Co-attention Module)でブリッジされたデュアルブランチネットワークを使用する。
論文 参考訳(メタデータ) (2023-05-12T09:28:09Z) - Event-Free Moving Object Segmentation from Moving Ego Vehicle [88.33470650615162]
動的シーンにおけるオブジェクトセグメンテーション(MOS)の移動は、自律運転において重要で困難だが、未調査の研究テーマである。
ほとんどのセグメンテーション法は、光学フローマップから得られるモーションキューを利用する。
我々は,光学的フローに頼らずにリッチなモーションキューを提供する,より優れた映像理解のためのイベントカメラを活用することを提案する。
論文 参考訳(メタデータ) (2023-04-28T23:43:10Z) - MoLo: Motion-augmented Long-short Contrastive Learning for Few-shot
Action Recognition [50.345327516891615]
我々は、長短コントラスト目的と動き自動デコーダを含む2つの重要なコンポーネントを含む動き強化長短コントラスト学習法(MoLo)を開発した。
MoLoは、広範囲の時間的コンテキストとモーションキューを同時に学習して、包括的な数ショットマッチングを実現する。
論文 参考訳(メタデータ) (2023-04-03T13:09:39Z) - MotionTrack: Learning Robust Short-term and Long-term Motions for
Multi-Object Tracking [56.92165669843006]
本研究では,短時間から長期間の軌跡を関連づける統合フレームワークで,堅牢な短期・長期動作を学習するMotionTrackを提案する。
密集した群集に対して,各ターゲットの複雑な動きを推定できる,短時間の軌跡から相互作用認識動作を学習するための新しい対話モジュールを設計する。
極端なオクルージョンのために、ターゲットの履歴軌跡から信頼できる長期動作を学習するための新しいRefind Moduleを構築し、中断された軌跡とそれに対応する検出とを関連付けることができる。
論文 参考訳(メタデータ) (2023-03-18T12:38:33Z) - Unsupervised 4D LiDAR Moving Object Segmentation in Stationary Settings
with Multivariate Occupancy Time Series [62.997667081978825]
静止センサから記録された4次元LiDARデータにおける非教師なし移動物体セグメンテーション(MOS)の問題に対処する。
教師なしMOSの問題を緩和する時系列に基づく新しい4次元LiDAR表現を提案する。
Raw KITTIデータセットによる静止シーンの実験では、完全に教師なしのアプローチが、教師付き最先端アプローチに匹敵するパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2022-12-30T14:48:14Z) - Exploring Motion and Appearance Information for Temporal Sentence
Grounding [52.01687915910648]
本研究では、時間的文のグラウンド化を解決するために、MARN(Motion-Appearance Reasoning Network)を提案する。
動作誘導と外見誘導のオブジェクト関係を学習するために,動作分岐と外見分岐を別々に開発する。
提案するMARNは,従来の最先端手法よりも大きなマージンで優れていた。
論文 参考訳(メタデータ) (2022-01-03T02:44:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。