論文の概要: Learning Efficient Meshflow and Optical Flow from Event Cameras
- arxiv url: http://arxiv.org/abs/2510.04111v1
- Date: Sun, 05 Oct 2025 09:30:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.461762
- Title: Learning Efficient Meshflow and Optical Flow from Event Cameras
- Title(参考訳): イベントカメラによるメッシュフローと光フローの学習
- Authors: Xinglong Luo, Ao Luo, Kunming Luo, Zhengning Wang, Ping Tan, Bing Zeng, Shuaicheng Liu,
- Abstract要約: イベントベースのメッシュフロー推定は、イベントカメラから空間的に滑らかなスパース運動場を予測する新しいタスクである。
本稿では,特殊なエンコーダ・デコーダアーキテクチャを備えた軽量モデルである,イベントベースのMeshFlowネットワークを提案する。
我々は、最近の最先端フロー法と比較して、EEMFlowモデルの異常な性能と実行効率(30倍高速)を示す包括的な実験を行う。
- 参考スコア(独自算出の注目度): 89.06553762828521
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we explore the problem of event-based meshflow estimation, a novel task that involves predicting a spatially smooth sparse motion field from event cameras. To start, we review the state-of-the-art in event-based flow estimation, highlighting two key areas for further research: i) the lack of meshflow-specific event datasets and methods, and ii) the underexplored challenge of event data density. First, we generate a large-scale High-Resolution Event Meshflow (HREM) dataset, which showcases its superiority by encompassing the merits of high resolution at 1280x720, handling dynamic objects and complex motion patterns, and offering both optical flow and meshflow labels. These aspects have not been fully explored in previous works. Besides, we propose Efficient Event-based MeshFlow (EEMFlow) network, a lightweight model featuring a specially crafted encoder-decoder architecture to facilitate swift and accurate meshflow estimation. Furthermore, we upgrade EEMFlow network to support dense event optical flow, in which a Confidence-induced Detail Completion (CDC) module is proposed to preserve sharp motion boundaries. We conduct comprehensive experiments to show the exceptional performance and runtime efficiency (30x faster) of our EEMFlow model compared to the recent state-of-the-art flow method. As an extension, we expand HREM into HREM+, a multi-density event dataset contributing to a thorough study of the robustness of existing methods across data with varying densities, and propose an Adaptive Density Module (ADM) to adjust the density of input event data to a more optimal range, enhancing the model's generalization ability. We empirically demonstrate that ADM helps to significantly improve the performance of EEMFlow and EEMFlow+ by 8% and 10%, respectively. Code and dataset are released at https://github.com/boomluo02/EEMFlowPlus.
- Abstract(参考訳): 本稿では,イベントカメラから空間的に滑らかなスパース運動場を予測する新しいタスクである,イベントベースメッシュフロー推定の問題について検討する。
まず、イベントベースのフロー推定における最先端の状況を概観し、さらなる研究の要点を2つ挙げる。
一 メッシュフロー固有のイベントデータセット及び方法の欠如
二 イベントデータ密度の未調査課題
まず、大規模な高分解能イベントメッシュフロー(HREM)データセットを生成し、高分解能の利点を1280x720で包含し、動的オブジェクトと複雑な動きパターンを扱い、光学フローとメッシュフローラベルの両方を提供することにより、その優位性を示す。
これらの側面は、以前の研究で完全には研究されていない。
さらに、高速かつ正確なメッシュフロー推定を容易にするために、特殊なエンコーダデコーダアーキテクチャを備えた軽量モデルであるEEMFlow(Efficient Event-based MeshFlow)ネットワークを提案する。
さらに,高密度なイベント光流をサポートするためにEEMFlowネットワークを改良し,信頼誘導型Detail Completion (CDC) モジュールを提案する。
我々は、最近の最先端フロー法と比較して、EEMFlowモデルの異常な性能と実行効率(30倍高速)を示す包括的な実験を行う。
拡張として、HREM を HREM+ に拡張する。HREM+ は、様々な密度を持つデータ間の既存手法のロバスト性の研究に寄与し、入力イベントデータの密度をより最適な範囲に調整し、モデルの一般化能力を向上する適応密度モジュール (Adaptive Density Module, ADM) を提案する。
我々は,ADMがEEMFlowとEEMFlow+の性能を,それぞれ8%,EEMFlow+が10%向上することを示した。
コードとデータセットはhttps://github.com/boomluo02/EEMFlowPlus.orgで公開されている。
関連論文リスト
- EDCFlow: Exploring Temporally Dense Difference Maps for Event-based Optical Flow Estimation [17.388776062997813]
本稿では,高分解能で高品質なフロー推定を実現するための軽量なイベントベース光フローネットワーク(EDCFlow)を提案する。
EDCFlowは、既存のメソッドに比べてより少ない複雑さでパフォーマンスを向上し、より優れた一般化を提供する。
論文 参考訳(メタデータ) (2025-06-04T02:55:04Z) - Event Signal Filtering via Probability Flux Estimation [58.31652473933809]
イベントは、非同期センシングを通じてシーンダイナミクスをキャプチャするための新しいパラダイムを提供するが、その固有のランダム性は、しばしば劣化した信号品質につながる。
したがって、イベント信号フィルタリングは、この内部ランダム性を低減し、多様な取得条件をまたいだ一貫した出力を確保することで、忠実性を高めるために不可欠である。
本稿ではイベント密度フローフィルタ(EDFilter)と呼ばれる生成オンラインフィルタリングフレームワークを紹介する。
実験では、イベントフィルタリング、スーパーレゾリューション、イベントベースの直接追跡といったタスクでEDFilterのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2025-04-10T07:03:08Z) - AnyFlow: Arbitrary Scale Optical Flow with Implicit Neural
Representation [17.501820140334328]
我々は,様々な解像度の画像から正確な流れを推定するロバストなネットワークであるAnyFlowを紹介した。
我々は,KITTIデータセット上でのクロスデータセット一般化の最先端性能を確立する。
論文 参考訳(メタデータ) (2023-03-29T07:03:51Z) - BlinkFlow: A Dataset to Push the Limits of Event-based Optical Flow Estimation [76.66876888943385]
イベントカメラは、高時間精度、低データレート、高ダイナミックレンジ視覚知覚を提供する。
イベントベース光フローのための大規模データを高速に生成するための新しいシミュレータBlinkSimを提案する。
論文 参考訳(メタデータ) (2023-03-14T09:03:54Z) - GMFlow: Learning Optical Flow via Global Matching [124.57850500778277]
光フロー推定学習のためのGMFlowフレームワークを提案する。
機能拡張のためのカスタマイズトランスフォーマー、グローバル機能マッチングのための相関層とソフトマックス層、フロー伝搬のための自己保持層である。
我々の新しいフレームワークは、挑戦的なSintelベンチマークにおいて、32項目RAFTのパフォーマンスより優れています。
論文 参考訳(メタデータ) (2021-11-26T18:59:56Z) - EMFlow: Data Imputation in Latent Space via EM and Deep Flow Models [5.076419064097734]
本稿では,予測最大化アルゴリズムのオンライン版を用いて,潜在空間における命令処理を行うEMFlowという計算手法を提案する。
提案するEMFlowは,計算精度と収束速度の両面で競合する手法よりも優れた性能を有する。
論文 参考訳(メタデータ) (2021-06-09T04:35:56Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。