論文の概要: Event-based Motion Segmentation by Cascaded Two-Level Multi-Model
Fitting
- arxiv url: http://arxiv.org/abs/2111.03483v1
- Date: Fri, 5 Nov 2021 12:59:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-08 15:40:43.834785
- Title: Event-based Motion Segmentation by Cascaded Two-Level Multi-Model
Fitting
- Title(参考訳): カスケード2レベルマルチモデルフィッティングによるイベントベースモーションセグメンテーション
- Authors: Xiuyuan Lu, Yi Zhou and Shaojie Shen
- Abstract要約: 独立に動く物体を単眼イベントカメラで識別するためのケースド2レベル多モデルフィッティング法を提案する。
動作パターンの異なる実世界のシーンにおいて,本手法の有効性と汎用性を示す実験を行った。
- 参考スコア(独自算出の注目度): 44.97191206895915
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Among prerequisites for a synthetic agent to interact with dynamic scenes,
the ability to identify independently moving objects is specifically important.
From an application perspective, nevertheless, standard cameras may deteriorate
remarkably under aggressive motion and challenging illumination conditions. In
contrast, event-based cameras, as a category of novel biologically inspired
sensors, deliver advantages to deal with these challenges. Its rapid response
and asynchronous nature enables it to capture visual stimuli at exactly the
same rate of the scene dynamics. In this paper, we present a cascaded two-level
multi-model fitting method for identifying independently moving objects (i.e.,
the motion segmentation problem) with a monocular event camera. The first level
leverages tracking of event features and solves the feature clustering problem
under a progressive multi-model fitting scheme. Initialized with the resulting
motion model instances, the second level further addresses the event clustering
problem using a spatio-temporal graph-cut method. This combination leads to
efficient and accurate event-wise motion segmentation that cannot be achieved
by any of them alone. Experiments demonstrate the effectiveness and versatility
of our method in real-world scenes with different motion patterns and an
unknown number of independently moving objects.
- Abstract(参考訳): 動的シーンと相互作用する合成エージェントの前提条件の中で、独立して動くオブジェクトを識別する能力は特に重要である。
アプリケーションの観点からは、標準的なカメラは攻撃的な動きと困難な照明条件下で著しく劣化する可能性がある。
対照的に、生物にインスパイアされた新しいセンサーのカテゴリーであるイベントベースのカメラは、これらの課題に対処するための利点を提供する。
迅速な反応と非同期性により、視覚刺激をシーンのダイナミックスと全く同じ速度で捉えることができる。
本稿では,独立に動く物体(運動分割問題)を単眼イベントカメラで識別するための,ケースド2段階のマルチモデルフィッティング法を提案する。
第1レベルはイベント機能のトラッキングを活用し、プログレッシブなマルチモデルフィッティングスキームの下で特徴クラスタリング問題を解決する。
結果のモーションモデルインスタンスで初期化され、第2レベルはさらに時空間グラフカット法を用いてイベントクラスタリング問題に対処する。
この組み合わせは、それらのどれかだけでは達成できない、効率的で正確なイベントワイズモーションセグメンテーションをもたらす。
異なる動きパターンと無数の独立移動物体を持つ実世界のシーンにおいて,本手法の有効性と汎用性を示す実験を行った。
関連論文リスト
- DATAP-SfM: Dynamic-Aware Tracking Any Point for Robust Structure from Motion in the Wild [85.03973683867797]
本稿では,スムーズなカメラ軌跡を推定し,野生のカジュアルビデオのための高密度点雲を得るための,簡潔でエレガントでロバストなパイプラインを提案する。
提案手法は,複雑な動的課題シーンにおいても,カメラポーズ推定による最先端性能を実現する。
論文 参考訳(メタデータ) (2024-11-20T13:01:16Z) - EgoGaussian: Dynamic Scene Understanding from Egocentric Video with 3D Gaussian Splatting [95.44545809256473]
エゴガウスアン(EgoGaussian)は、3Dシーンを同時に再構築し、RGBエゴセントリックな入力のみから3Dオブジェクトの動きを動的に追跡する手法である。
動的オブジェクトと背景再構築の品質の両面で,最先端技術と比較して大きな改善が見られた。
論文 参考訳(メタデータ) (2024-06-28T10:39:36Z) - Motion Segmentation for Neuromorphic Aerial Surveillance [42.04157319642197]
イベントカメラは優れた時間分解能、優れたダイナミックレンジ、最小限の電力要件を提供する。
固定間隔で冗長な情報をキャプチャする従来のフレームベースのセンサーとは異なり、イベントカメラは画素レベルの明るさ変化を非同期に記録する。
本稿では,イベントデータと光フロー情報の両方に自己監督型視覚変換器を利用する動き分割手法を提案する。
論文 参考訳(メタデータ) (2024-05-24T04:36:13Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - Attentive and Contrastive Learning for Joint Depth and Motion Field
Estimation [76.58256020932312]
単眼視システムからシーンの3次元構造とともにカメラの動きを推定することは複雑な作業である。
モノクロ映像からの3次元物体運動場推定のための自己教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T16:45:01Z) - Event-based Motion Segmentation with Spatio-Temporal Graph Cuts [51.17064599766138]
イベントベースカメラで取得したオブジェクトを独立に識別する手法を開発した。
この方法は、予想される移動物体の数を事前に決定することなく、技術状態よりも同等以上の性能を発揮する。
論文 参考訳(メタデータ) (2020-12-16T04:06:02Z) - 0-MMS: Zero-Shot Multi-Motion Segmentation With A Monocular Event Camera [13.39518293550118]
本稿では,ボトムアップ機能トラッキングとトップダウン動作補償を組み合わせたモノラルなマルチモーションセグメンテーション手法を提案する。
時間間隔内でのイベントを用いて、本手法はシーンを分割とマージによって複数の動作に分割する。
このアプローチは、EV-IMO、EED、MODデータセットから、挑戦的な現実シナリオと合成シナリオの両方で評価された。
論文 参考訳(メタデータ) (2020-06-11T02:34:29Z) - End-to-end Learning of Object Motion Estimation from Retinal Events for
Event-based Object Tracking [35.95703377642108]
イベントベースオブジェクト追跡のためのパラメトリックオブジェクトレベルの動き/変換モデルを学習し、回帰する新しいディープニューラルネットワークを提案する。
この目的を達成するために,線形時間減衰表現を用いた同期時間曲面を提案する。
我々は、TSLTDフレームのシーケンスを新しい網膜運動回帰ネットワーク(RMRNet)に供給し、エンド・ツー・エンドの5-DoFオブジェクト・モーション・レグレッションを実行する。
論文 参考訳(メタデータ) (2020-02-14T08:19:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。