論文の概要: Dense Optical Flow from Event Cameras
- arxiv url: http://arxiv.org/abs/2108.10552v1
- Date: Tue, 24 Aug 2021 07:39:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-25 19:02:27.992403
- Title: Dense Optical Flow from Event Cameras
- Title(参考訳): イベントカメラからの高密度光流れ
- Authors: Mathias Gehrig and Mario Millh\"ausler and Daniel Gehrig and Davide
Scaramuzza
- Abstract要約: 本稿では,イベントカメラからの高密度光フロー推定に特徴相関と逐次処理を導入することを提案する。
提案手法は、高密度光流を計算し、MVSEC上での終点誤差を23%削減する。
- 参考スコア(独自算出の注目度): 55.79329250951028
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We propose to incorporate feature correlation and sequential processing into
dense optical flow estimation from event cameras. Modern frame-based optical
flow methods heavily rely on matching costs computed from feature correlation.
In contrast, there exists no optical flow method for event cameras that
explicitly computes matching costs. Instead, learning-based approaches using
events usually resort to the U-Net architecture to estimate optical flow
sparsely. Our key finding is that the introduction of correlation features
significantly improves results compared to previous methods that solely rely on
convolution layers. Compared to the state-of-the-art, our proposed approach
computes dense optical flow and reduces the end-point error by 23% on MVSEC.
Furthermore, we show that all existing optical flow methods developed so far
for event cameras have been evaluated on datasets with very small displacement
fields with a maximum flow magnitude of 10 pixels. Based on this observation,
we introduce a new real-world dataset that exhibits displacement fields with
magnitudes up to 210 pixels and 3 times higher camera resolution. Our proposed
approach reduces the end-point error on this dataset by 66%.
- Abstract(参考訳): イベントカメラからの高密度光フロー推定に特徴相関と逐次処理を導入することを提案する。
現代のフレームベース光フロー法は特徴相関から計算したマッチングコストに大きく依存している。
対照的に、マッチングコストを明示的に計算するイベントカメラの光学フロー法は存在しない。
代わりに、イベントを用いた学習ベースのアプローチは、通常はU-Netアーキテクチャを利用して光学フローをわずかに見積もる。
我々の重要な発見は、相関関数の導入は、畳み込み層のみに依存する従来の方法と比較して、結果を著しく改善するということです。
提案手法は,最先端技術と比較して高密度光流を計算し,終点誤差をMVSECで23%削減する。
また,イベントカメラ用にこれまでに開発された光学フロー法はすべて,最大流量10ピクセルの非常に小さな変位場を持つデータセット上で評価されている。
この観測に基づいて,最大210ピクセルの変位場と3倍の解像度のカメラ分解能を示す,新しい実世界のデータセットを導入する。
提案手法は,このデータセットの終端点誤差を66%低減する。
関連論文リスト
- Robust Optical Flow Computation: A Higher-Order Differential Approach [0.0]
本研究は,2次テイラー級数近似の高精度化を利用して,光フロー計算のための革新的なアルゴリズムを提案する。
KITTIやMiddleburyのような光学フローベンチマークのパフォーマンスによって、アルゴリズムの機能を示す印象的な例が現れる。
論文 参考訳(メタデータ) (2024-10-12T15:20:11Z) - Motion-prior Contrast Maximization for Dense Continuous-Time Motion Estimation [34.529280562470746]
コントラスト最大化フレームワークと非直線運動を組み合わせた新たな自己監督的損失を画素レベルの軌跡の形で導入する。
連続時間運動の高密度推定では, 合成学習モデルのゼロショット性能を29%向上する。
論文 参考訳(メタデータ) (2024-07-15T15:18:28Z) - Rethink Predicting the Optical Flow with the Kinetics Perspective [1.7901503554839604]
光フロー推定は、低レベルコンピュータビジョンにおける基本的なタスクの1つである。
見かけ上は、連続したフレーム内の画素間の相関として光学フローを見ることができる。
本稿では,このモチベーションから明らかな情報と運動学情報を組み合わせる手法を提案する。
論文 参考訳(メタデータ) (2024-05-21T05:47:42Z) - Deep Dynamic Scene Deblurring from Optical Flow [53.625999196063574]
汚れは視覚的により快適な写真を提供し、写真がより便利になる。
非均一な曖昧さを数学的にモデル化することは困難である。
我々は,難解な特徴から鮮明な画像を復元する畳み込みニューラルネットワーク(CNN)を開発した。
論文 参考訳(メタデータ) (2023-01-18T06:37:21Z) - PCA Event-Based Otical Flow for Visual Odometry [0.0]
本稿では,イベントベース光流量推定問題に対する主成分分析手法を提案する。
提案手法の最良の変種は,ビジュアルオドメトリーのリアルタイムコンテキストを対象とし,最先端実装と比較して約2倍高速であることを示す。
論文 参考訳(メタデータ) (2021-05-08T18:30:44Z) - Learning Optical Flow from a Few Matches [67.83633948984954]
密な相関体積表現は冗長であり、その中の要素のほんの一部で正確なフロー推定が達成できることを示した。
実験により,高い精度を維持しつつ計算コストとメモリ使用量を大幅に削減できることを示した。
論文 参考訳(メタデータ) (2021-04-05T21:44:00Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z) - STaRFlow: A SpatioTemporal Recurrent Cell for Lightweight Multi-Frame
Optical Flow Estimation [64.99259320624148]
マルチフレーム光フロー推定のための軽量CNNアルゴリズムを提案する。
結果のSTaRFlowアルゴリズムは、MPI SintelとKitti2015で最先端のパフォーマンスを提供する。
論文 参考訳(メタデータ) (2020-07-10T17:01:34Z) - Single Image Optical Flow Estimation with an Event Camera [38.92408855196647]
イベントカメラはバイオインスパイアされたセンサーで、マイクロ秒解像度の強度変化を報告している。
本稿では,単一画像(潜在的にぼやけた)とイベントに基づく光フロー推定手法を提案する。
論文 参考訳(メタデータ) (2020-04-01T11:28:30Z) - Joint Unsupervised Learning of Optical Flow and Egomotion with Bi-Level
Optimization [59.9673626329892]
エピポーラ幾何を用いた光学フローとカメラモーションのグローバルな関係を利用する。
我々は暗黙の微分を用いて、その実装とは無関係に低レベルの幾何最適化層を通してバックプロパゲーションを可能にする。
論文 参考訳(メタデータ) (2020-02-26T22:28:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。