論文の概要: Moving Object Detection for Event-based vision using Graph Spectral
Clustering
- arxiv url: http://arxiv.org/abs/2109.14979v1
- Date: Thu, 30 Sep 2021 10:19:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-01 15:01:22.676773
- Title: Moving Object Detection for Event-based vision using Graph Spectral
Clustering
- Title(参考訳): グラフスペクトルクラスタリングによるイベントベース視覚の移動物体検出
- Authors: Anindya Mondal, Shashant R, Jhony H. Giraldo, Thierry Bouwmans, Ananda
S. Chowdhury
- Abstract要約: 移動物体検出は、幅広い応用のためのコンピュータビジョンにおける中心的な話題となっている。
イベントベースデータにおける移動物体検出のための教師なしグラフスペクトルクラスタリング手法を提案する。
さらに,移動物体の最適個数を自動決定する方法について述べる。
- 参考スコア(独自算出の注目度): 6.354824287948164
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Moving object detection has been a central topic of discussion in computer
vision for its wide range of applications like in self-driving cars, video
surveillance, security, and enforcement. Neuromorphic Vision Sensors (NVS) are
bio-inspired sensors that mimic the working of the human eye. Unlike
conventional frame-based cameras, these sensors capture a stream of
asynchronous 'events' that pose multiple advantages over the former, like high
dynamic range, low latency, low power consumption, and reduced motion blur.
However, these advantages come at a high cost, as the event camera data
typically contains more noise and has low resolution. Moreover, as event-based
cameras can only capture the relative changes in brightness of a scene, event
data do not contain usual visual information (like texture and color) as
available in video data from normal cameras. So, moving object detection in
event-based cameras becomes an extremely challenging task. In this paper, we
present an unsupervised Graph Spectral Clustering technique for Moving Object
Detection in Event-based data (GSCEventMOD). We additionally show how the
optimum number of moving objects can be automatically determined. Experimental
comparisons on publicly available datasets show that the proposed GSCEventMOD
algorithm outperforms a number of state-of-the-art techniques by a maximum
margin of 30%.
- Abstract(参考訳): 移動物体検出(moving object detection)は、自動運転車やビデオ監視、セキュリティ、執行など、幅広い応用分野におけるコンピュータビジョンの中心的な話題である。
ニューロモルフィック・ビジョン・センサー(nvs)は、人間の目の動きを模倣するバイオインスパイアされたセンサーである。
従来のフレームベースのカメラとは異なり、これらのセンサーは非同期の「イベント」の流れを捉え、ダイナミックレンジ、低レイテンシ、低消費電力、モーションボケの低減など、前者よりも多くの利点をもたらす。
しかし、イベントカメラのデータはノイズが多く、解像度が低いため、これらの利点は高いコストで得られる。
さらに、イベントベースのカメラはシーンの明るさの相対的な変化しか捉えられないため、通常のカメラからの映像データでは、イベントデータは通常の視覚情報(テクスチャや色など)を含まない。
そのため、イベントベースのカメラで物体を検出するのは非常に難しい作業になる。
本稿では,イベントベースデータ(GSCEventMOD)における移動物体検出のための教師なしグラフスペクトルクラスタリング手法を提案する。
さらに,移動物体の最適個数を自動決定する方法について述べる。
公開データセットの実験的比較により、提案したGSCEventMODアルゴリズムは、最先端技術の最大マージンを30%上回る性能を示した。
関連論文リスト
- Distractor-aware Event-based Tracking [45.07711356111249]
本稿では,シームズネットワークアーキテクチャ(DANet)にトランスフォーマーモジュールを導入するイベントベースのトラッカーを提案する。
本モデルは主にモーション認識ネットワークとターゲット認識ネットワークで構成され,イベントデータから動作キューとオブジェクトの輪郭の両方を同時に活用する。
私たちのDANetは、後処理なしでエンドツーエンドでトレーニングでき、単一のV100上で80FPS以上で実行できます。
論文 参考訳(メタデータ) (2023-10-22T05:50:20Z) - SpikeMOT: Event-based Multi-Object Tracking with Sparse Motion Features [52.213656737672935]
SpikeMOTはイベントベースのマルチオブジェクトトラッカーである。
SpikeMOTはスパイクニューラルネットワークを使用して、オブジェクトに関連するイベントストリームからスパーステンポラルな特徴を抽出する。
論文 参考訳(メタデータ) (2023-09-29T05:13:43Z) - Event-Free Moving Object Segmentation from Moving Ego Vehicle [88.33470650615162]
動的シーンにおけるオブジェクトセグメンテーション(MOS)の移動は、自律運転において重要で困難だが、未調査の研究テーマである。
ほとんどのセグメンテーション法は、光学フローマップから得られるモーションキューを利用する。
我々は,光学的フローに頼らずにリッチなモーションキューを提供する,より優れた映像理解のためのイベントカメラを活用することを提案する。
論文 参考訳(メタデータ) (2023-04-28T23:43:10Z) - Dual Memory Aggregation Network for Event-Based Object Detection with
Learnable Representation [79.02808071245634]
イベントベースのカメラはバイオインスパイアされたセンサーで、各ピクセルの明るさ変化を非同期に捉える。
イベントストリームは、正極性と負極性の両方のためにx-y-t座標の格子に分割され、3次元テンソル表現として柱の集合が生成される。
長メモリは適応型convLSTMの隠れ状態に符号化され、短メモリはイベントピラー間の空間的時間的相関を計算することによってモデル化される。
論文 参考訳(メタデータ) (2023-03-17T12:12:41Z) - PL-EVIO: Robust Monocular Event-based Visual Inertial Odometry with
Point and Line Features [3.6355269783970394]
イベントカメラは、フレームレートが固定された強度画像の代わりにピクセルレベルの照明変化をキャプチャするモーションアクティベートセンサーである。
本稿では,ロバストで高精度でリアルタイムな単眼イベントベース視覚慣性オドメトリー(VIO)法を提案する。
論文 参考訳(メタデータ) (2022-09-25T06:14:12Z) - Moving Object Detection for Event-based Vision using k-means Clustering [0.0]
物体検出の移動はコンピュータビジョンにおいて重要な課題である。
イベントベースのカメラは、人間の目の動きを模倣して動作するバイオインスパイアされたカメラである。
本稿では,イベントベースデータにおける移動物体の検出におけるk平均クラスタリング手法の適用について検討する。
論文 参考訳(メタデータ) (2021-09-04T14:43:14Z) - TUM-VIE: The TUM Stereo Visual-Inertial Event Dataset [50.8779574716494]
イベントカメラはバイオインスパイアされた視覚センサーで、ピクセルごとの明るさの変化を測定する。
これらは、低レイテンシ、高ダイナミックレンジ、高時間分解能、低消費電力など、従来のフレームベースのカメラよりも多くの利点を提供する。
イベントカメラを用いた3次元認識・ナビゲーションアルゴリズムの開発を促進するため,TUM-VIEデータセットを提案する。
論文 参考訳(メタデータ) (2021-08-16T19:53:56Z) - VisEvent: Reliable Object Tracking via Collaboration of Frame and Event
Flows [93.54888104118822]
このタスクには現実的でスケールしたデータセットがないため、大規模なVisible-Eventベンチマーク(VisEventと呼ぶ)を提案する。
私たちのデータセットは、低照度、高速、背景乱雑なシナリオ下でキャプチャされた820のビデオペアで構成されています。
VisEventに基づいて、イベントフローをイベントイメージに変換し、30以上のベースラインメソッドを構築します。
論文 参考訳(メタデータ) (2021-08-11T03:55:12Z) - Event-based Motion Segmentation with Spatio-Temporal Graph Cuts [51.17064599766138]
イベントベースカメラで取得したオブジェクトを独立に識別する手法を開発した。
この方法は、予想される移動物体の数を事前に決定することなく、技術状態よりも同等以上の性能を発揮する。
論文 参考訳(メタデータ) (2020-12-16T04:06:02Z) - Learning to Detect Objects with a 1 Megapixel Event Camera [14.949946376335305]
イベントカメラは、高時間精度、低データレート、高ダイナミックレンジで視覚情報を符号化する。
フィールドの新規性のため、多くのビジョンタスクにおけるイベントベースのシステムの性能は、従来のフレームベースのソリューションに比べて依然として低い。
論文 参考訳(メタデータ) (2020-09-28T16:03:59Z) - End-to-end Learning of Object Motion Estimation from Retinal Events for
Event-based Object Tracking [35.95703377642108]
イベントベースオブジェクト追跡のためのパラメトリックオブジェクトレベルの動き/変換モデルを学習し、回帰する新しいディープニューラルネットワークを提案する。
この目的を達成するために,線形時間減衰表現を用いた同期時間曲面を提案する。
我々は、TSLTDフレームのシーケンスを新しい網膜運動回帰ネットワーク(RMRNet)に供給し、エンド・ツー・エンドの5-DoFオブジェクト・モーション・レグレッションを実行する。
論文 参考訳(メタデータ) (2020-02-14T08:19:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。