論文の概要: 0-MMS: Zero-Shot Multi-Motion Segmentation With A Monocular Event Camera
- arxiv url: http://arxiv.org/abs/2006.06158v2
- Date: Sat, 7 Nov 2020 01:58:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 14:00:23.892956
- Title: 0-MMS: Zero-Shot Multi-Motion Segmentation With A Monocular Event Camera
- Title(参考訳): 0-MMS:単眼イベントカメラによるゼロショットマルチモーションセグメンテーション
- Authors: Chethan M. Parameshwara, Nitin J. Sanket, Chahat Deep Singh, Cornelia
Ferm\"uller, and Yiannis Aloimonos
- Abstract要約: 本稿では,ボトムアップ機能トラッキングとトップダウン動作補償を組み合わせたモノラルなマルチモーションセグメンテーション手法を提案する。
時間間隔内でのイベントを用いて、本手法はシーンを分割とマージによって複数の動作に分割する。
このアプローチは、EV-IMO、EED、MODデータセットから、挑戦的な現実シナリオと合成シナリオの両方で評価された。
- 参考スコア(独自算出の注目度): 13.39518293550118
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Segmentation of moving objects in dynamic scenes is a key process in scene
understanding for navigation tasks. Classical cameras suffer from motion blur
in such scenarios rendering them effete. On the contrary, event cameras,
because of their high temporal resolution and lack of motion blur, are
tailor-made for this problem. We present an approach for monocular multi-motion
segmentation, which combines bottom-up feature tracking and top-down motion
compensation into a unified pipeline, which is the first of its kind to our
knowledge. Using the events within a time-interval, our method segments the
scene into multiple motions by splitting and merging. We further speed up our
method by using the concept of motion propagation and cluster keyslices.
The approach was successfully evaluated on both challenging real-world and
synthetic scenarios from the EV-IMO, EED, and MOD datasets and outperformed the
state-of-the-art detection rate by 12\%, achieving a new state-of-the-art
average detection rate of 81.06%, 94.2% and 82.35% on the aforementioned
datasets. To enable further research and systematic evaluation of multi-motion
segmentation, we present and open-source a new dataset/benchmark called MOD++,
which includes challenging sequences and extensive data stratification in-terms
of camera and object motion, velocity magnitudes, direction, and rotational
speeds.
- Abstract(参考訳): 動的シーンにおける移動オブジェクトのセグメンテーションは、ナビゲーションタスクのシーン理解において重要なプロセスである。
このようなシナリオでは、古典的なカメラは動きのぼやけに苦しんでいる。
逆に、イベントカメラは、時間分解能が高く、動きのぼやけがないため、この問題のために仕組まれている。
本稿では,ボトムアップ機能トラッキングとトップダウン動作補償を組み合わせたモノラルなマルチモーションセグメンテーションのアプローチを提案する。
タイムインターバル内のイベントを用いて,シーンを分割・融合することで複数の動作に分割する。
動き伝播とクラスターキースの概念を用いて, 提案手法をさらに高速化する。
このアプローチは、EV-IMO、EED、MODのデータセットからの挑戦的な実世界のシナリオと合成シナリオの両方で評価され、上記のデータセットでは、新しい最先端の平均検出率である81.06%、94.2%、82.35%を達成した。
マルチモーションセグメンテーションのさらなる研究と体系的評価を可能にするため、mod++と呼ばれる新しいデータセット/ベンチマークを、カメラと物体の動き、速度の大きさ、方向、回転速度の短期的な挑戦的なシーケンスと広範なデータ階層化を含む形で、公開・公開しました。
関連論文リスト
- DATAP-SfM: Dynamic-Aware Tracking Any Point for Robust Structure from Motion in the Wild [85.03973683867797]
本稿では,スムーズなカメラ軌跡を推定し,野生のカジュアルビデオのための高密度点雲を得るための,簡潔でエレガントでロバストなパイプラインを提案する。
提案手法は,複雑な動的課題シーンにおいても,カメラポーズ推定による最先端性能を実現する。
論文 参考訳(メタデータ) (2024-11-20T13:01:16Z) - Motion Segmentation for Neuromorphic Aerial Surveillance [42.04157319642197]
イベントカメラは優れた時間分解能、優れたダイナミックレンジ、最小限の電力要件を提供する。
固定間隔で冗長な情報をキャプチャする従来のフレームベースのセンサーとは異なり、イベントカメラは画素レベルの明るさ変化を非同期に記録する。
本稿では,イベントデータと光フロー情報の両方に自己監督型視覚変換器を利用する動き分割手法を提案する。
論文 参考訳(メタデータ) (2024-05-24T04:36:13Z) - Out of the Room: Generalizing Event-Based Dynamic Motion Segmentation
for Complex Scenes [10.936350433952668]
モーションセグメンテーション(Motion segmentation)とも呼ばれる動的シーン部品の迅速かつ信頼性の高い識別は、モバイルセンサーにとって重要な課題である。
イベントカメラはこれらの制限を克服する可能性があるが、それに対応する方法は小規模の屋内環境でのみ実証されている。
本研究は,複雑な大規模屋外環境にも展開可能な,クラスに依存しない動作セグメンテーションのイベントベース手法を提案する。
論文 参考訳(メタデータ) (2024-03-07T14:59:34Z) - Event-Free Moving Object Segmentation from Moving Ego Vehicle [88.33470650615162]
動的シーンにおけるオブジェクトセグメンテーション(MOS)の移動は、自律運転において重要で困難だが、未調査の研究テーマである。
ほとんどのセグメンテーション法は、光学フローマップから得られるモーションキューを利用する。
我々は,光学的フローに頼らずにリッチなモーションキューを提供する,より優れた映像理解のためのイベントカメラを活用することを提案する。
論文 参考訳(メタデータ) (2023-04-28T23:43:10Z) - Event-based Simultaneous Localization and Mapping: A Comprehensive Survey [52.73728442921428]
ローカライゼーションとマッピングタスクのための非同期および不規則なイベントストリームの利点を利用する、イベントベースのvSLAMアルゴリズムのレビュー。
Paperは、イベントベースのvSLAMメソッドを、特徴ベース、ダイレクト、モーション補償、ディープラーニングの4つのカテゴリに分類する。
論文 参考訳(メタデータ) (2023-04-19T16:21:14Z) - Implicit Motion Handling for Video Camouflaged Object Detection [60.98467179649398]
本稿では,新しいビデオカモフラージュオブジェクト検出(VCOD)フレームワークを提案する。
短期的および長期的整合性を利用して、ビデオフレームからカモフラージュされたオブジェクトを検出する。
論文 参考訳(メタデータ) (2022-03-14T17:55:41Z) - Event-based Motion Segmentation by Cascaded Two-Level Multi-Model
Fitting [44.97191206895915]
独立に動く物体を単眼イベントカメラで識別するためのケースド2レベル多モデルフィッティング法を提案する。
動作パターンの異なる実世界のシーンにおいて,本手法の有効性と汎用性を示す実験を行った。
論文 参考訳(メタデータ) (2021-11-05T12:59:41Z) - Learning to Segment Rigid Motions from Two Frames [72.14906744113125]
本研究では, 運動場から独立物体の動きを復元する幾何学的解析により, モジュラーネットワークを提案する。
2つの連続フレームを入力とし、背景のセグメンテーションマスクと複数の剛体移動オブジェクトを予測し、3次元の剛体変換によってパラメータ化する。
本手法はkittiおよびsintelにおける剛体運動セグメンテーションの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-11T04:20:30Z) - Event-based Motion Segmentation with Spatio-Temporal Graph Cuts [51.17064599766138]
イベントベースカメラで取得したオブジェクトを独立に識別する手法を開発した。
この方法は、予想される移動物体の数を事前に決定することなく、技術状態よりも同等以上の性能を発揮する。
論文 参考訳(メタデータ) (2020-12-16T04:06:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。