論文の概要: Event-based Motion Segmentation by Cascaded Two-Level Multi-Model
Fitting
- arxiv url: http://arxiv.org/abs/2111.03483v1
- Date: Fri, 5 Nov 2021 12:59:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-08 15:40:43.834785
- Title: Event-based Motion Segmentation by Cascaded Two-Level Multi-Model
Fitting
- Title(参考訳): カスケード2レベルマルチモデルフィッティングによるイベントベースモーションセグメンテーション
- Authors: Xiuyuan Lu, Yi Zhou and Shaojie Shen
- Abstract要約: 独立に動く物体を単眼イベントカメラで識別するためのケースド2レベル多モデルフィッティング法を提案する。
動作パターンの異なる実世界のシーンにおいて,本手法の有効性と汎用性を示す実験を行った。
- 参考スコア(独自算出の注目度): 44.97191206895915
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Among prerequisites for a synthetic agent to interact with dynamic scenes,
the ability to identify independently moving objects is specifically important.
From an application perspective, nevertheless, standard cameras may deteriorate
remarkably under aggressive motion and challenging illumination conditions. In
contrast, event-based cameras, as a category of novel biologically inspired
sensors, deliver advantages to deal with these challenges. Its rapid response
and asynchronous nature enables it to capture visual stimuli at exactly the
same rate of the scene dynamics. In this paper, we present a cascaded two-level
multi-model fitting method for identifying independently moving objects (i.e.,
the motion segmentation problem) with a monocular event camera. The first level
leverages tracking of event features and solves the feature clustering problem
under a progressive multi-model fitting scheme. Initialized with the resulting
motion model instances, the second level further addresses the event clustering
problem using a spatio-temporal graph-cut method. This combination leads to
efficient and accurate event-wise motion segmentation that cannot be achieved
by any of them alone. Experiments demonstrate the effectiveness and versatility
of our method in real-world scenes with different motion patterns and an
unknown number of independently moving objects.
- Abstract(参考訳): 動的シーンと相互作用する合成エージェントの前提条件の中で、独立して動くオブジェクトを識別する能力は特に重要である。
アプリケーションの観点からは、標準的なカメラは攻撃的な動きと困難な照明条件下で著しく劣化する可能性がある。
対照的に、生物にインスパイアされた新しいセンサーのカテゴリーであるイベントベースのカメラは、これらの課題に対処するための利点を提供する。
迅速な反応と非同期性により、視覚刺激をシーンのダイナミックスと全く同じ速度で捉えることができる。
本稿では,独立に動く物体(運動分割問題)を単眼イベントカメラで識別するための,ケースド2段階のマルチモデルフィッティング法を提案する。
第1レベルはイベント機能のトラッキングを活用し、プログレッシブなマルチモデルフィッティングスキームの下で特徴クラスタリング問題を解決する。
結果のモーションモデルインスタンスで初期化され、第2レベルはさらに時空間グラフカット法を用いてイベントクラスタリング問題に対処する。
この組み合わせは、それらのどれかだけでは達成できない、効率的で正確なイベントワイズモーションセグメンテーションをもたらす。
異なる動きパターンと無数の独立移動物体を持つ実世界のシーンにおいて,本手法の有効性と汎用性を示す実験を行った。
関連論文リスト
- Instance-Level Moving Object Segmentation from a Single Image with Events [84.12761042512452]
移動対象セグメンテーションは、複数の移動対象を含む動的なシーンを理解する上で重要な役割を果たす。
従来の手法では、物体の画素変位がカメラの動きや物体の動きによって引き起こされるかどうかを区別することが困難であった。
近年の進歩は、従来の画像の不適切な動作モデリング機能に対抗するために、新しいイベントカメラの動作感度を利用する。
補完的なテクスチャとモーションキューを統合した,最初のインスタンスレベルの移動オブジェクトセグメンテーションフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-18T15:56:46Z) - Event-Based Tracking Any Point with Motion-Augmented Temporal Consistency [58.719310295870024]
本稿では,任意の点を追跡するイベントベースのフレームワークを提案する。
出来事の空間的空間性や動きの感度によって引き起こされる課題に対処する。
競合モデルパラメータによる処理を150%高速化する。
論文 参考訳(メタデータ) (2024-12-02T09:13:29Z) - DATAP-SfM: Dynamic-Aware Tracking Any Point for Robust Structure from Motion in the Wild [85.03973683867797]
本稿では,スムーズなカメラ軌跡を推定し,野生のカジュアルビデオのための高密度点雲を得るための,簡潔でエレガントでロバストなパイプラインを提案する。
提案手法は,複雑な動的課題シーンにおいても,カメラポーズ推定による最先端性能を実現する。
論文 参考訳(メタデータ) (2024-11-20T13:01:16Z) - Motion Segmentation for Neuromorphic Aerial Surveillance [42.04157319642197]
イベントカメラは優れた時間分解能、優れたダイナミックレンジ、最小限の電力要件を提供する。
固定間隔で冗長な情報をキャプチャする従来のフレームベースのセンサーとは異なり、イベントカメラは画素レベルの明るさ変化を非同期に記録する。
本稿では,イベントデータと光フロー情報の両方に自己監督型視覚変換器を利用する動き分割手法を提案する。
論文 参考訳(メタデータ) (2024-05-24T04:36:13Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - Event-based Motion Segmentation with Spatio-Temporal Graph Cuts [51.17064599766138]
イベントベースカメラで取得したオブジェクトを独立に識別する手法を開発した。
この方法は、予想される移動物体の数を事前に決定することなく、技術状態よりも同等以上の性能を発揮する。
論文 参考訳(メタデータ) (2020-12-16T04:06:02Z) - 0-MMS: Zero-Shot Multi-Motion Segmentation With A Monocular Event Camera [13.39518293550118]
本稿では,ボトムアップ機能トラッキングとトップダウン動作補償を組み合わせたモノラルなマルチモーションセグメンテーション手法を提案する。
時間間隔内でのイベントを用いて、本手法はシーンを分割とマージによって複数の動作に分割する。
このアプローチは、EV-IMO、EED、MODデータセットから、挑戦的な現実シナリオと合成シナリオの両方で評価された。
論文 参考訳(メタデータ) (2020-06-11T02:34:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。