論文の概要: Learning Event-Based Motion Deblurring
- arxiv url: http://arxiv.org/abs/2004.05794v1
- Date: Mon, 13 Apr 2020 07:01:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 00:12:14.468590
- Title: Learning Event-Based Motion Deblurring
- Title(参考訳): イベントベースモーションデブロアリングの学習
- Authors: Zhe Jiang, Yu Zhang, Dongqing Zou, Jimmy Ren, Jiancheng Lv, Yebin Liu
- Abstract要約: 高速な動きは、イベントベースのカメラの高速でイベントとしてキャプチャすることができる。
我々は、その最適化を、新しいエンドツーエンドのディープアーキテクチャでどのように展開できるかを示す。
提案手法は、最先端の復元品質を実現し、実世界の動きのぼかし処理をより一般化する。
- 参考スコア(独自算出の注目度): 39.16921854492941
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recovering sharp video sequence from a motion-blurred image is highly
ill-posed due to the significant loss of motion information in the blurring
process. For event-based cameras, however, fast motion can be captured as
events at high time rate, raising new opportunities to exploring effective
solutions. In this paper, we start from a sequential formulation of event-based
motion deblurring, then show how its optimization can be unfolded with a novel
end-to-end deep architecture. The proposed architecture is a convolutional
recurrent neural network that integrates visual and temporal knowledge of both
global and local scales in principled manner. To further improve the
reconstruction, we propose a differentiable directional event filtering module
to effectively extract rich boundary prior from the stream of events. We
conduct extensive experiments on the synthetic GoPro dataset and a large newly
introduced dataset captured by a DAVIS240C camera. The proposed approach
achieves state-of-the-art reconstruction quality, and generalizes better to
handling real-world motion blur.
- Abstract(参考訳): ブレア画像からシャープな映像シーケンスを復元することは、ぼやけた処理において、動き情報が著しく失われるため、非常に不明瞭である。
しかし、イベントベースのカメラでは、高速モーションを高速でイベントとして捉えることができ、効果的なソリューションを探求する新たな機会が生まれる。
本稿では、イベントベースの動作遅延の逐次定式化から始め、その最適化が新しいエンドツーエンドの深層アーキテクチャでどのように展開できるかを示す。
提案アーキテクチャは,グローバルスケールとローカルスケールの両方の視覚的および時間的知識を原則的に統合した畳み込みリカレントニューラルネットワークである。
再構成をさらに改善するため、イベントストリームからリッチ境界を効果的に抽出する、微分可能な方向性イベントフィルタリングモジュールを提案する。
DAVIS240Cカメラで捉えた合成GoProデータセットと大規模な新しいデータセットについて広範な実験を行った。
提案手法は,最先端の再現性を実現し,実世界の動きのぼやきの処理を一般化する。
関連論文リスト
- AE-NeRF: Augmenting Event-Based Neural Radiance Fields for Non-ideal Conditions and Larger Scene [31.142207770861457]
非理想的条件からイベントベースNeRFを学習する際の課題を解決するために,AE-NeRFを提案する。
本手法は,イベントベース3次元再構成における新しい最先端技術を実現する。
論文 参考訳(メタデータ) (2025-01-06T07:00:22Z) - EventSplat: 3D Gaussian Splatting from Moving Event Cameras for Real-time Rendering [7.392798832833857]
イベントカメラは例外的な時間分解能と高いダイナミックレンジを提供する。
ガウススプラッティングによる新しいビュー合成におけるイベントカメラデータの利用法を提案する。
論文 参考訳(メタデータ) (2024-12-10T08:23:58Z) - E2HQV: High-Quality Video Generation from Event Camera via
Theory-Inspired Model-Aided Deep Learning [53.63364311738552]
バイオインスパイアされたイベントカメラやダイナミックビジョンセンサーは、高時間分解能と高ダイナミックレンジでピクセルごとの明るさ変化(イベントストリームと呼ばれる)を捉えることができる。
イベントストリームを入力として取り出し、直感的な視覚化のために高品質なビデオフレームを生成する、イベント間ビデオ(E2V)ソリューションを求めている。
イベントから高品質なビデオフレームを生成するために設計された新しいE2VパラダイムであるtextbfE2HQVを提案する。
論文 参考訳(メタデータ) (2024-01-16T05:10:50Z) - EventAid: Benchmarking Event-aided Image/Video Enhancement Algorithms
with Real-captured Hybrid Dataset [55.12137324648253]
イベントカメラは、ダイナミックレンジとセンサーの速度で従来のフレームベースの撮像センサーよりも有利な、新興のイメージング技術である。
本稿では,5つのイベント支援画像と映像強調タスクに焦点を当てる。
論文 参考訳(メタデータ) (2023-12-13T15:42:04Z) - Learning Parallax for Stereo Event-based Motion Deblurring [8.201943408103995]
既存のアプローチは、インテンシティ・イメージとイベントの間の完全なピクセルワイド・アライメントに依存している。
我々は,Stereoイベントと強度カメラ(St-EDNet)を併用したイベントベース動作のNetwork of Event-based motionを提案する。
我々はSTEIC(Stereo Event and Intensity Cameras)を用いた新しいデータセットを構築し、現実世界のイベント、強度画像、密度の異なるマップを含む。
論文 参考訳(メタデータ) (2023-09-18T06:51:41Z) - DynaMoN: Motion-Aware Fast and Robust Camera Localization for Dynamic Neural Radiance Fields [71.94156412354054]
動的ニューラルラジアンス場(DynaMoN)の高速かつロバストなカメラ位置推定法を提案する。
DynaMoNは、初期のカメラポーズ推定と高速で正確なノベルビュー合成のための静的集光線サンプリングのために動的コンテンツを処理している。
我々は,TUM RGB-DデータセットとBONN RGB-D Dynamicデータセットの2つの実世界の動的データセットに対するアプローチを広く評価した。
論文 参考訳(メタデータ) (2023-09-16T08:46:59Z) - Event-based Non-Rigid Reconstruction from Contours [17.049602518532847]
本稿では,イベントベースカメラを用いた新しい変形再構成手法を提案する。
全てのイベントが動きによって生成される静的な背景の仮定の下で、我々の手法はオブジェクトの輪郭で生成されたイベントからオブジェクトの変形を推定する。
イベントを輪郭のメッシュフェイスに関連付け、イベントピクセルと関連する顔との間の視線のアライメントを最大化する。
論文 参考訳(メタデータ) (2022-10-12T14:53:11Z) - MEFNet: Multi-scale Event Fusion Network for Motion Deblurring [62.60878284671317]
従来のフレームベースのカメラは、長時間露光のために必然的に動きがぼやけている。
バイオインスパイアされたカメラの一種として、イベントカメラは、高時間分解能で非同期な方法で強度変化を記録する。
本稿では,イベントベースの画像劣化問題を再考し,これをエンドツーエンドの2段階画像復元ネットワークに展開する。
論文 参考訳(メタデータ) (2021-11-30T23:18:35Z) - Motion-blurred Video Interpolation and Extrapolation [72.3254384191509]
本稿では,映像から鮮明なフレームをエンドツーエンドに切り離し,補間し,外挿する新しい枠組みを提案する。
予測フレーム間の時間的コヒーレンスを確保し,潜在的な時間的あいまいさに対処するために,単純で効果的なフローベースルールを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:18:25Z) - Back to Event Basics: Self-Supervised Learning of Image Reconstruction
for Event Cameras via Photometric Constancy [0.0]
イベントカメラは、非同期な方法で、低レイテンシで高時間分解能の輝度インクリメントをサンプリングする新しい視覚センサである。
本稿では,光学的フロー推定のための新しい軽量ニューラルネットワークを提案する。
複数のデータセットにまたがる結果から、提案した自己教師型アプローチのパフォーマンスは最先端技術と一致していることがわかる。
論文 参考訳(メタデータ) (2020-09-17T13:30:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。