論文の概要: Iterative Event-based Motion Segmentation by Variational Contrast Maximization
- arxiv url: http://arxiv.org/abs/2504.18447v1
- Date: Fri, 25 Apr 2025 16:00:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.833383
- Title: Iterative Event-based Motion Segmentation by Variational Contrast Maximization
- Title(参考訳): 変動コントラスト最大化による反復事象に基づく動き分割
- Authors: Ryo Yamaki, Shintaro Shiba, Guillermo Gallego, Yoshimitsu Aoki,
- Abstract要約: イベントカメラは、シーンの変化に反応するため、モーション推定に適したリッチな信号を提供する。
事象を背景(支配的な動き仮説など)と前景(独立な動き残差)に分類する反復的な動き分割法を提案する。
実験の結果,提案手法は,公開データセットと自己記録データセットの両方において,イベントクラスタの分類に成功していることがわかった。
- 参考スコア(独自算出の注目度): 16.68279129685
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Event cameras provide rich signals that are suitable for motion estimation since they respond to changes in the scene. As any visual changes in the scene produce event data, it is paramount to classify the data into different motions (i.e., motion segmentation), which is useful for various tasks such as object detection and visual servoing. We propose an iterative motion segmentation method, by classifying events into background (e.g., dominant motion hypothesis) and foreground (independent motion residuals), thus extending the Contrast Maximization framework. Experimental results demonstrate that the proposed method successfully classifies event clusters both for public and self-recorded datasets, producing sharp, motion-compensated edge-like images. The proposed method achieves state-of-the-art accuracy on moving object detection benchmarks with an improvement of over 30%, and demonstrates its possibility of applying to more complex and noisy real-world scenes. We hope this work broadens the sensitivity of Contrast Maximization with respect to both motion parameters and input events, thus contributing to theoretical advancements in event-based motion segmentation estimation. https://github.com/aoki-media-lab/event_based_segmentation_vcmax
- Abstract(参考訳): イベントカメラは、シーンの変化に反応するため、モーション推定に適したリッチな信号を提供する。
シーン内の視覚的な変化がイベントデータを生成するため、オブジェクトの検出や視覚サーボといった様々なタスクに有用な、異なる動き(つまり、動きのセグメンテーション)にデータを分類することが最重要となる。
本稿では,事象を背景(支配的な動き仮説)と前景(独立な動き残差)に分類し,コントラストの最大化フレームワークを拡張した反復的動き分割法を提案する。
実験により,提案手法は,公開データセットと自己記録データセットの両方においてイベントクラスタの分類に成功し,シャープかつ動き補償されたエッジライクな画像を生成することを示した。
提案手法は,30%以上の改良を施した移動物体検出ベンチマークの最先端精度を実現し,より複雑でノイズの多い実世界のシーンに適用可能であることを示す。
この研究は、運動パラメータと入力イベントの両方に対するコントラスト最大化の感度を拡大し、事象に基づく運動セグメンテーション推定の理論的発展に寄与することを願っている。
https://github.com/aoki-media-lab/event_based_segmentation_vcmax
関連論文リスト
- Segment Any Motion in Videos [80.72424676419755]
本研究では,長距離軌道運動キューとDINOに基づく意味的特徴を組み合わせた移動物体セグメンテーションを提案する。
本モデルでは,動作を優先し,セマンティックサポートを統合しつつ,時空間軌道注意と動き・セマンティック・デカップリング・エンベディングを用いた。
論文 参考訳(メタデータ) (2025-03-28T09:34:11Z) - Instance-Level Moving Object Segmentation from a Single Image with Events [84.12761042512452]
移動対象セグメンテーションは、複数の移動対象を含む動的なシーンを理解する上で重要な役割を果たす。
従来の手法では、物体の画素変位がカメラの動きや物体の動きによって引き起こされるかどうかを区別することが困難であった。
近年の進歩は、従来の画像の不適切な動作モデリング機能に対抗するために、新しいイベントカメラの動作感度を利用する。
補完的なテクスチャとモーションキューを統合した,最初のインスタンスレベルの移動オブジェクトセグメンテーションフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-18T15:56:46Z) - Event-Based Tracking Any Point with Motion-Augmented Temporal Consistency [58.719310295870024]
本稿では,任意の点を追跡するイベントベースのフレームワークを提案する。
出来事の空間的空間性や動きの感度によって引き起こされる課題に対処する。
競合モデルパラメータによる処理を150%高速化する。
論文 参考訳(メタデータ) (2024-12-02T09:13:29Z) - EAN: Event Adaptive Network for Enhanced Action Recognition [66.81780707955852]
本稿では,映像コンテンツの動的性質を調査するための統合された行動認識フレームワークを提案する。
まず、局所的な手がかりを抽出する際に、動的スケールの時空間カーネルを生成し、多様な事象を適応的に適合させる。
第2に、これらのキューを正確にグローバルなビデオ表現に集約するために、トランスフォーマーによって選択されたいくつかの前景オブジェクト間のインタラクションのみをマイニングすることを提案する。
論文 参考訳(メタデータ) (2021-07-22T15:57:18Z) - Learning to Segment Rigid Motions from Two Frames [72.14906744113125]
本研究では, 運動場から独立物体の動きを復元する幾何学的解析により, モジュラーネットワークを提案する。
2つの連続フレームを入力とし、背景のセグメンテーションマスクと複数の剛体移動オブジェクトを予測し、3次元の剛体変換によってパラメータ化する。
本手法はkittiおよびsintelにおける剛体運動セグメンテーションの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-11T04:20:30Z) - Event-based Motion Segmentation with Spatio-Temporal Graph Cuts [51.17064599766138]
イベントベースカメラで取得したオブジェクトを独立に識別する手法を開発した。
この方法は、予想される移動物体の数を事前に決定することなく、技術状態よりも同等以上の性能を発揮する。
論文 参考訳(メタデータ) (2020-12-16T04:06:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。