論文の概要: Event-based Motion Segmentation with Spatio-Temporal Graph Cuts
- arxiv url: http://arxiv.org/abs/2012.08730v2
- Date: Sat, 27 Mar 2021 00:08:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-03 02:58:09.133985
- Title: Event-based Motion Segmentation with Spatio-Temporal Graph Cuts
- Title(参考訳): 時空間グラフによるイベントベース動作分割
- Authors: Yi Zhou, Guillermo Gallego, Xiuyuan Lu, Siqi Liu, and Shaojie Shen
- Abstract要約: イベントベースカメラで取得したオブジェクトを独立に識別する手法を開発した。
この方法は、予想される移動物体の数を事前に決定することなく、技術状態よりも同等以上の性能を発揮する。
- 参考スコア(独自算出の注目度): 51.17064599766138
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Identifying independently moving objects is an essential task for dynamic
scene understanding. However, traditional cameras used in dynamic scenes may
suffer from motion blur or exposure artifacts due to their sampling principle.
By contrast, event-based cameras are novel bio-inspired sensors that offer
advantages to overcome such limitations. They report pixel-wise intensity
changes asynchronously, which enables them to acquire visual information at
exactly the same rate as the scene dynamics. We have developed a method to
identify independently moving objects acquired with an event-based camera,
i.e., to solve the event-based motion segmentation problem. This paper
describes how to formulate the problem as a weakly-constrained multi-model
fitting one via energy minimization, and how to jointly solve its two
subproblems -- event-cluster assignment (labeling) and motion model fitting --
in an iterative manner, by exploiting the spatio-temporal structure of input
events in the form of a space-time graph. Experiments on available datasets
demonstrate the versatility of the method in scenes with different motion
patterns and number of moving objects. The evaluation shows that the method
performs on par or better than the state of the art without having to
predetermine the number of expected moving objects.
- Abstract(参考訳): 独立して動く物体を識別することは動的なシーン理解に不可欠である。
しかし、ダイナミックシーンで使用される伝統的なカメラは、そのサンプリング原理により、動きのぼやけや露出アーティファクトに苦しむことがある。
対照的に、イベントベースのカメラは、そのような制限を克服する利点を提供する、新しいバイオインスパイアされたセンサーである。
ピクセル単位の強度変化を非同期に報告し、シーンダイナミクスと全く同じ速度で視覚情報を取得することができる。
本研究では,イベントベースカメラで取得した独立移動物体を識別する手法,すなわちイベントベース動作分割問題を解決する手法を開発した。
本稿では, 入力イベントの時空間構造を時空間グラフの形で利用することにより, エネルギー最小化による弱い制約付きマルチモデルフィッティングとして問題を定式化する方法と, イベントクラスタ割り当て(ラベル付け)とモーションモデルフィッティングの2つのサブプロブレムを反復的に解く方法について述べる。
利用可能なデータセットの実験では、異なる動きパターンと移動物体の数を持つシーンにおいて、メソッドの汎用性を示す。
提案手法は,期待される移動物体の数を事前に決定することなく,技術水準よりも同等以上の性能を発揮することを示す。
関連論文リスト
- Instance-Level Moving Object Segmentation from a Single Image with Events [84.12761042512452]
移動対象セグメンテーションは、複数の移動対象を含む動的なシーンを理解する上で重要な役割を果たす。
従来の手法では、物体の画素変位がカメラの動きや物体の動きによって引き起こされるかどうかを区別することが困難であった。
近年の進歩は、従来の画像の不適切な動作モデリング機能に対抗するために、新しいイベントカメラの動作感度を利用する。
補完的なテクスチャとモーションキューを統合した,最初のインスタンスレベルの移動オブジェクトセグメンテーションフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-18T15:56:46Z) - Event-Based Tracking Any Point with Motion-Augmented Temporal Consistency [58.719310295870024]
本稿では,任意の点を追跡するイベントベースのフレームワークを提案する。
出来事の空間的空間性や動きの感度によって引き起こされる課題に対処する。
競合モデルパラメータによる処理を150%高速化する。
論文 参考訳(メタデータ) (2024-12-02T09:13:29Z) - Motion Segmentation for Neuromorphic Aerial Surveillance [42.04157319642197]
イベントカメラは優れた時間分解能、優れたダイナミックレンジ、最小限の電力要件を提供する。
固定間隔で冗長な情報をキャプチャする従来のフレームベースのセンサーとは異なり、イベントカメラは画素レベルの明るさ変化を非同期に記録する。
本稿では,イベントデータと光フロー情報の両方に自己監督型視覚変換器を利用する動き分割手法を提案する。
論文 参考訳(メタデータ) (2024-05-24T04:36:13Z) - InstMove: Instance Motion for Object-centric Video Segmentation [70.16915119724757]
本研究では,オブジェクト中心ビデオのインスタンス・モーションを表すInstMoveとインスタンス・レベル・モーションについて検討する。
InstMoveは主に画像特徴の埋め込みのないインスタンスレベルのモーション情報に依存している。
数行のコードだけで、InstMoveは3つの異なるビデオセグメンテーションタスクのために、現在のSOTAメソッドに統合できる。
論文 参考訳(メタデータ) (2023-03-14T17:58:44Z) - Event-based Motion Segmentation by Cascaded Two-Level Multi-Model
Fitting [44.97191206895915]
独立に動く物体を単眼イベントカメラで識別するためのケースド2レベル多モデルフィッティング法を提案する。
動作パターンの異なる実世界のシーンにおいて,本手法の有効性と汎用性を示す実験を行った。
論文 参考訳(メタデータ) (2021-11-05T12:59:41Z) - Attentive and Contrastive Learning for Joint Depth and Motion Field
Estimation [76.58256020932312]
単眼視システムからシーンの3次元構造とともにカメラの動きを推定することは複雑な作業である。
モノクロ映像からの3次元物体運動場推定のための自己教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T16:45:01Z) - 0-MMS: Zero-Shot Multi-Motion Segmentation With A Monocular Event Camera [13.39518293550118]
本稿では,ボトムアップ機能トラッキングとトップダウン動作補償を組み合わせたモノラルなマルチモーションセグメンテーション手法を提案する。
時間間隔内でのイベントを用いて、本手法はシーンを分割とマージによって複数の動作に分割する。
このアプローチは、EV-IMO、EED、MODデータセットから、挑戦的な現実シナリオと合成シナリオの両方で評価された。
論文 参考訳(メタデータ) (2020-06-11T02:34:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。