論文の概要: Un-EvMoSeg: Unsupervised Event-based Independent Motion Segmentation
- arxiv url: http://arxiv.org/abs/2312.00114v1
- Date: Thu, 30 Nov 2023 18:59:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-04 16:49:32.965565
- Title: Un-EvMoSeg: Unsupervised Event-based Independent Motion Segmentation
- Title(参考訳): Un-EvMoSeg: 教師なしイベントベースの独立運動セグメンテーション
- Authors: Ziyun Wang, Jinyuan Guo, Kostas Daniilidis
- Abstract要約: イベントカメラは、高時間分解能、高ダイナミックレンジ、低消費電力で知られている、生物学的にインスパイアされた新しいタイプの視覚センサである。
幾何学的制約を用いたIMO擬似ラベルを生成する最初のイベントフレームワークを提案する。
この手法は教師なしの性質のため、任意の数の未定オブジェクトを処理でき、高価なIMOラベルが手に入らないデータセットに容易に拡張できる。
- 参考スコア(独自算出の注目度): 33.21922177483246
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Event cameras are a novel type of biologically inspired vision sensor known
for their high temporal resolution, high dynamic range, and low power
consumption. Because of these properties, they are well-suited for processing
fast motions that require rapid reactions. Although event cameras have recently
shown competitive performance in unsupervised optical flow estimation,
performance in detecting independently moving objects (IMOs) is lacking behind,
although event-based methods would be suited for this task based on their low
latency and HDR properties. Previous approaches to event-based IMO segmentation
have been heavily dependent on labeled data. However, biological vision systems
have developed the ability to avoid moving objects through daily tasks without
being given explicit labels. In this work, we propose the first event framework
that generates IMO pseudo-labels using geometric constraints. Due to its
unsupervised nature, our method can handle an arbitrary number of not
predetermined objects and is easily scalable to datasets where expensive IMO
labels are not readily available. We evaluate our approach on the EVIMO dataset
and show that it performs competitively with supervised methods, both
quantitatively and qualitatively.
- Abstract(参考訳): イベントカメラは、その高時間分解能、高ダイナミックレンジ、低消費電力で知られる、生物にインスパイアされた新しいビジョンセンサーである。
これらの性質のため、高速反応を必要とする高速運動を処理するのに適している。
イベントカメラは、最近、教師なしの光フロー推定において競合性能を示したが、独立移動物体(imos)の検出性能は遅れているが、イベントベースの手法は、低レイテンシとhdr特性に基づいてこのタスクに適している。
イベントベースのimoセグメンテーションに対する以前のアプローチはラベル付きデータに大きく依存していた。
しかし、生物学的視覚システムは、明示的なラベルを与えることなく、日常的なタスクを通して物体を動かすことを避ける能力を開発した。
本稿では,幾何制約を用いたimo擬似ラベルを生成する最初のイベントフレームワークを提案する。
この手法は教師なしの性質のため、任意の数の未定オブジェクトを処理でき、高価なIMOラベルが手に入らないデータセットに容易に拡張できる。
EVIMOデータセットに対する我々のアプローチを評価し、定量的かつ定性的に教師付き手法と競合することを示す。
関連論文リスト
- Motion Segmentation for Neuromorphic Aerial Surveillance [42.04157319642197]
イベントカメラは優れた時間分解能、優れたダイナミックレンジ、最小限の電力要件を提供する。
固定間隔で冗長な情報をキャプチャする従来のフレームベースのセンサーとは異なり、イベントカメラは画素レベルの明るさ変化を非同期に記録する。
本稿では,イベントデータと光フロー情報の両方に自己監督型視覚変換器を利用する動き分割手法を提案する。
論文 参考訳(メタデータ) (2024-05-24T04:36:13Z) - Tracking-Assisted Object Detection with Event Cameras [16.408606403997005]
イベントベースのオブジェクト検出は、コンピュータビジョンコミュニティで最近注目を集めている。
しかし、特徴的不規則性や空間性は、カメラに対する相対的な動きがないため、見えない物体を生じさせる。
本稿では、これらの見えない物体を擬似隠蔽物体とみなす。
擬似隠蔽オブジェクトのトラッキング戦略を利用して、永続性を維持し、バウンディングボックスを保持する。
論文 参考訳(メタデータ) (2024-03-27T08:11:25Z) - SpikeMOT: Event-based Multi-Object Tracking with Sparse Motion Features [52.213656737672935]
SpikeMOTはイベントベースのマルチオブジェクトトラッカーである。
SpikeMOTはスパイクニューラルネットワークを使用して、オブジェクトに関連するイベントストリームからスパーステンポラルな特徴を抽出する。
論文 参考訳(メタデータ) (2023-09-29T05:13:43Z) - FEDORA: Flying Event Dataset fOr Reactive behAvior [9.470870778715689]
イベントベースのセンサーは、高速な動きを捉えるための標準フレームベースのカメラに代わる低レイテンシと低エネルギーの代替として登場した。
Flying Eventデータセット fOr Reactive behAviour (FEDORA) - 知覚タスクのための完全に合成されたデータセット。
論文 参考訳(メタデータ) (2023-05-22T22:59:05Z) - Event-Free Moving Object Segmentation from Moving Ego Vehicle [88.33470650615162]
動的シーンにおけるオブジェクトセグメンテーション(MOS)の移動は、自律運転において重要で困難だが、未調査の研究テーマである。
ほとんどのセグメンテーション法は、光学フローマップから得られるモーションキューを利用する。
我々は,光学的フローに頼らずにリッチなモーションキューを提供する,より優れた映像理解のためのイベントカメラを活用することを提案する。
論文 参考訳(メタデータ) (2023-04-28T23:43:10Z) - Event-based Simultaneous Localization and Mapping: A Comprehensive Survey [52.73728442921428]
ローカライゼーションとマッピングタスクのための非同期および不規則なイベントストリームの利点を利用する、イベントベースのvSLAMアルゴリズムのレビュー。
Paperは、イベントベースのvSLAMメソッドを、特徴ベース、ダイレクト、モーション補償、ディープラーニングの4つのカテゴリに分類する。
論文 参考訳(メタデータ) (2023-04-19T16:21:14Z) - ESS: Learning Event-based Semantic Segmentation from Still Images [48.37422967330683]
イベントベースのセマンティックセグメンテーションは、センサーの新規性と高品質なラベル付きデータセットの欠如により、まだ初期段階にある。
既存のラベル付き画像データセットから、教師なしドメイン適応(UDA)を介してラベルなしイベントにセマンティックセグメンテーションタスクを転送するESSを導入する。
イベントベースのセマンティックセグメンテーションのさらなる研究を促進するために、我々はDSEC-Semanticを導入した。
論文 参考訳(メタデータ) (2022-03-18T15:30:01Z) - Moving Object Detection for Event-based vision using Graph Spectral
Clustering [6.354824287948164]
移動物体検出は、幅広い応用のためのコンピュータビジョンにおける中心的な話題となっている。
イベントベースデータにおける移動物体検出のための教師なしグラフスペクトルクラスタリング手法を提案する。
さらに,移動物体の最適個数を自動決定する方法について述べる。
論文 参考訳(メタデータ) (2021-09-30T10:19:22Z) - Bridging the Gap between Events and Frames through Unsupervised Domain
Adaptation [57.22705137545853]
本稿では,ラベル付き画像とラベル付きイベントデータを用いてモデルを直接訓練するタスク転送手法を提案する。
生成イベントモデルを利用して、イベント機能をコンテンツとモーションに分割します。
われわれのアプローチは、イベントベースのニューラルネットワークのトレーニングのために、膨大な量の既存の画像データセットをアンロックする。
論文 参考訳(メタデータ) (2021-09-06T17:31:37Z) - Event-based Motion Segmentation with Spatio-Temporal Graph Cuts [51.17064599766138]
イベントベースカメラで取得したオブジェクトを独立に識別する手法を開発した。
この方法は、予想される移動物体の数を事前に決定することなく、技術状態よりも同等以上の性能を発揮する。
論文 参考訳(メタデータ) (2020-12-16T04:06:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。