論文の概要: Event-based Motion Segmentation with Spatio-Temporal Graph Cuts
- arxiv url: http://arxiv.org/abs/2012.08730v2
- Date: Sat, 27 Mar 2021 00:08:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-03 02:58:09.133985
- Title: Event-based Motion Segmentation with Spatio-Temporal Graph Cuts
- Title(参考訳): 時空間グラフによるイベントベース動作分割
- Authors: Yi Zhou, Guillermo Gallego, Xiuyuan Lu, Siqi Liu, and Shaojie Shen
- Abstract要約: イベントベースカメラで取得したオブジェクトを独立に識別する手法を開発した。
この方法は、予想される移動物体の数を事前に決定することなく、技術状態よりも同等以上の性能を発揮する。
- 参考スコア(独自算出の注目度): 51.17064599766138
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Identifying independently moving objects is an essential task for dynamic
scene understanding. However, traditional cameras used in dynamic scenes may
suffer from motion blur or exposure artifacts due to their sampling principle.
By contrast, event-based cameras are novel bio-inspired sensors that offer
advantages to overcome such limitations. They report pixel-wise intensity
changes asynchronously, which enables them to acquire visual information at
exactly the same rate as the scene dynamics. We have developed a method to
identify independently moving objects acquired with an event-based camera,
i.e., to solve the event-based motion segmentation problem. This paper
describes how to formulate the problem as a weakly-constrained multi-model
fitting one via energy minimization, and how to jointly solve its two
subproblems -- event-cluster assignment (labeling) and motion model fitting --
in an iterative manner, by exploiting the spatio-temporal structure of input
events in the form of a space-time graph. Experiments on available datasets
demonstrate the versatility of the method in scenes with different motion
patterns and number of moving objects. The evaluation shows that the method
performs on par or better than the state of the art without having to
predetermine the number of expected moving objects.
- Abstract(参考訳): 独立して動く物体を識別することは動的なシーン理解に不可欠である。
しかし、ダイナミックシーンで使用される伝統的なカメラは、そのサンプリング原理により、動きのぼやけや露出アーティファクトに苦しむことがある。
対照的に、イベントベースのカメラは、そのような制限を克服する利点を提供する、新しいバイオインスパイアされたセンサーである。
ピクセル単位の強度変化を非同期に報告し、シーンダイナミクスと全く同じ速度で視覚情報を取得することができる。
本研究では,イベントベースカメラで取得した独立移動物体を識別する手法,すなわちイベントベース動作分割問題を解決する手法を開発した。
本稿では, 入力イベントの時空間構造を時空間グラフの形で利用することにより, エネルギー最小化による弱い制約付きマルチモデルフィッティングとして問題を定式化する方法と, イベントクラスタ割り当て(ラベル付け)とモーションモデルフィッティングの2つのサブプロブレムを反復的に解く方法について述べる。
利用可能なデータセットの実験では、異なる動きパターンと移動物体の数を持つシーンにおいて、メソッドの汎用性を示す。
提案手法は,期待される移動物体の数を事前に決定することなく,技術水準よりも同等以上の性能を発揮することを示す。
関連論文リスト
- Motion Segmentation for Neuromorphic Aerial Surveillance [42.04157319642197]
イベントカメラは優れた時間分解能、優れたダイナミックレンジ、最小限の電力要件を提供する。
固定間隔で冗長な情報をキャプチャする従来のフレームベースのセンサーとは異なり、イベントカメラは画素レベルの明るさ変化を非同期に記録する。
本稿では,イベントデータと光フロー情報の両方に自己監督型視覚変換器を利用する動き分割手法を提案する。
論文 参考訳(メタデータ) (2024-05-24T04:36:13Z) - Motion Segmentation from a Moving Monocular Camera [3.115818438802931]
我々は、点軌跡法と光フロー法という、単眼運動分割手法の2つの一般的な分岐を生かしている。
我々は異なるシーン構造で様々な複雑な物体の動きを同時にモデル化することができる。
提案手法は,KT3DMoSegデータセット上での最先端性能を示す。
論文 参考訳(メタデータ) (2023-09-24T22:59:05Z) - InstMove: Instance Motion for Object-centric Video Segmentation [70.16915119724757]
本研究では,オブジェクト中心ビデオのインスタンス・モーションを表すInstMoveとインスタンス・レベル・モーションについて検討する。
InstMoveは主に画像特徴の埋め込みのないインスタンスレベルのモーション情報に依存している。
数行のコードだけで、InstMoveは3つの異なるビデオセグメンテーションタスクのために、現在のSOTAメソッドに統合できる。
論文 参考訳(メタデータ) (2023-03-14T17:58:44Z) - Event-based Motion Segmentation by Cascaded Two-Level Multi-Model
Fitting [44.97191206895915]
独立に動く物体を単眼イベントカメラで識別するためのケースド2レベル多モデルフィッティング法を提案する。
動作パターンの異なる実世界のシーンにおいて,本手法の有効性と汎用性を示す実験を行った。
論文 参考訳(メタデータ) (2021-11-05T12:59:41Z) - NeuralDiff: Segmenting 3D objects that move in egocentric videos [92.95176458079047]
観測された3次元シーンを静的な背景と動的前景に分解する問題について検討する。
このタスクは、古典的な背景の減算問題を連想させるが、静的でダイナミックなシーンの全ての部分が大きな動きを生じさせるため、非常に難しい。
特に、自我中心のビデオについて検討し、動的コンポーネントを観察・移動するオブジェクトとアクターにさらに分離する。
論文 参考訳(メタデータ) (2021-10-19T12:51:35Z) - Attentive and Contrastive Learning for Joint Depth and Motion Field
Estimation [76.58256020932312]
単眼視システムからシーンの3次元構造とともにカメラの動きを推定することは複雑な作業である。
モノクロ映像からの3次元物体運動場推定のための自己教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T16:45:01Z) - Exposure Trajectory Recovery from Motion Blur [90.75092808213371]
ダイナミックシーンにおける動きのぼやけは重要な研究テーマである。
本稿では、ぼやけた画像に含まれる動き情報を表す露光軌跡を定義する。
静止シャープ画像の画素方向の変位をモデル化するための新しい動きオフセット推定フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-06T05:23:33Z) - 0-MMS: Zero-Shot Multi-Motion Segmentation With A Monocular Event Camera [13.39518293550118]
本稿では,ボトムアップ機能トラッキングとトップダウン動作補償を組み合わせたモノラルなマルチモーションセグメンテーション手法を提案する。
時間間隔内でのイベントを用いて、本手法はシーンを分割とマージによって複数の動作に分割する。
このアプローチは、EV-IMO、EED、MODデータセットから、挑戦的な現実シナリオと合成シナリオの両方で評価された。
論文 参考訳(メタデータ) (2020-06-11T02:34:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。