論文の概要: Single Image Optical Flow Estimation with an Event Camera
- arxiv url: http://arxiv.org/abs/2004.00347v1
- Date: Wed, 1 Apr 2020 11:28:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 19:04:21.439551
- Title: Single Image Optical Flow Estimation with an Event Camera
- Title(参考訳): イベントカメラを用いた単一画像光フロー推定
- Authors: Liyuan Pan, Miaomiao Liu and Richard Hartley
- Abstract要約: イベントカメラはバイオインスパイアされたセンサーで、マイクロ秒解像度の強度変化を報告している。
本稿では,単一画像(潜在的にぼやけた)とイベントに基づく光フロー推定手法を提案する。
- 参考スコア(独自算出の注目度): 38.92408855196647
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event cameras are bio-inspired sensors that asynchronously report intensity
changes in microsecond resolution. DAVIS can capture high dynamics of a scene
and simultaneously output high temporal resolution events and low frame-rate
intensity images. In this paper, we propose a single image (potentially
blurred) and events based optical flow estimation approach. First, we
demonstrate how events can be used to improve flow estimates. To this end, we
encode the relation between flow and events effectively by presenting an
event-based photometric consistency formulation. Then, we consider the special
case of image blur caused by high dynamics in the visual environments and show
that including the blur formation in our model further constrains flow
estimation. This is in sharp contrast to existing works that ignore the blurred
images while our formulation can naturally handle either blurred or sharp
images to achieve accurate flow estimation. Finally, we reduce flow estimation,
as well as image deblurring, to an alternative optimization problem of an
objective function using the primal-dual algorithm. Experimental results on
both synthetic and real data (with blurred and non-blurred images) show the
superiority of our model in comparison to state-of-the-art approaches.
- Abstract(参考訳): イベントカメラはバイオインスパイアされたセンサーで、マイクロ秒解像度の強度変化を非同期に報告する。
DAVISはシーンの高ダイナミックスをキャプチャし、同時に高時間分解能イベントと低フレームレートの強度画像を生成する。
本稿では,単一画像(潜在的にぼやけた)とイベントに基づく光フロー推定手法を提案する。
まず、フロー推定を改善するためにイベントをどのように使用できるかを示す。
この目的のために, フローとイベントの関係を, イベントベースのフォトメトリック一貫性の定式化により効果的にエンコードする。
そこで,視覚環境における高ダイナミックスによる画像のぼかしの特殊な事例を考察し,このモデルにおけるぼかしの生成がフロー推定をさらに制約することを示す。
これは、ぼやけた画像を無視した既存の作業とは対照的に、私たちの定式化では、ぼやけた画像や鋭い画像を自然に処理し、正確なフロー推定を実現できます。
最後に,本手法を用いた目的関数の代替最適化問題に対して,フロー推定と画像デブラリングを削減した。
合成データと実データ(ぼやけた画像と非青色画像の両方)の実験的結果は、最先端のアプローチと比較して、我々のモデルの優位性を示している。
関連論文リスト
- Motion-prior Contrast Maximization for Dense Continuous-Time Motion Estimation [34.529280562470746]
コントラスト最大化フレームワークと非直線運動を組み合わせた新たな自己監督的損失を画素レベルの軌跡の形で導入する。
連続時間運動の高密度推定では, 合成学習モデルのゼロショット性能を29%向上する。
論文 参考訳(メタデータ) (2024-07-15T15:18:28Z) - Recovering Continuous Scene Dynamics from A Single Blurry Image with
Events [58.7185835546638]
インプリシットビデオ関数(IVF)は、同時イベントを伴う単一の動きのぼやけた画像を表現する。
両モードの利点を効果的に活用するために、二重注意変換器を提案する。
提案するネットワークは,限られた参照タイムスタンプの地平線画像の監督のみで訓練される。
論文 参考訳(メタデータ) (2023-04-05T18:44:17Z) - Learning Dense and Continuous Optical Flow from an Event Camera [28.77846425802558]
DAVISのようなイベントカメラは、高時間分解能イベントと低フレームレートの強度イメージを同時に出力することができる。
既存の光学フロー推定法のほとんどは、2つの連続した画像フレームに基づいており、固定時間間隔でのみ離散フローを推定できる。
本稿では,イベントストリームを持つ単一画像から,深層学習に基づく高密度かつ連続的な光フロー推定フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-16T17:53:18Z) - Event-based Image Deblurring with Dynamic Motion Awareness [10.81953574179206]
露光時間における実RGBのぼかし画像と関連する事象のペアを含む最初のデータセットを紹介する。
以上の結果より,PSNRは合成データで1.57dB,実イベントデータで1.08dBまで改善された。
論文 参考訳(メタデータ) (2022-08-24T09:39:55Z) - Globally-Optimal Event Camera Motion Estimation [30.79931004393174]
イベントカメラは、HDR条件でよく機能し、時間分解能の高いバイオインスパイアされたセンサーである。
イベントカメラは、非同期ピクセルレベルの変更を測定し、高度に識別されたフォーマットでそれらを返す。
論文 参考訳(メタデータ) (2022-03-08T08:24:22Z) - Dense Optical Flow from Event Cameras [55.79329250951028]
本稿では,イベントカメラからの高密度光フロー推定に特徴相関と逐次処理を導入することを提案する。
提案手法は、高密度光流を計算し、MVSEC上での終点誤差を23%削減する。
論文 参考訳(メタデータ) (2021-08-24T07:39:08Z) - Spatiotemporal Registration for Event-based Visual Odometry [40.02502611087858]
イベントセンシングの有用な応用は、特に高時間分解能を必要とする設定において視覚計測である。
本稿では,イベントベース回転運動推定手法として大規模登録を提案する。
また,高精度ロボットアームを用いて,速度変動が大きい動き列を取得するビジュアルオドメトリーのための新しいイベントデータセットも提供した。
論文 参考訳(メタデータ) (2021-03-10T09:23:24Z) - Optical Flow Estimation from a Single Motion-blurred Image [66.2061278123057]
画像内の動きのぼかしは、基本的なコンピュータビジョンの問題に実用的な関心を持つ可能性があります。
本研究では,単一動画像からの光流れをエンドツーエンドで推定する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:45:18Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z) - Self-Supervised Linear Motion Deblurring [112.75317069916579]
深層畳み込みニューラルネットワークは、画像の劣化の最先端技術である。
本稿では,自己監督型動作遅延に対する識別可能なreblurモデルを提案する。
我々の実験は、自己監督された単一画像の劣化が本当に実現可能であることを実証した。
論文 参考訳(メタデータ) (2020-02-10T20:15:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。