論文の概要: E-CIR: Event-Enhanced Continuous Intensity Recovery
- arxiv url: http://arxiv.org/abs/2203.01935v1
- Date: Thu, 3 Mar 2022 03:20:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-08 05:33:12.969046
- Title: E-CIR: Event-Enhanced Continuous Intensity Recovery
- Title(参考訳): E-CIR: イベント強化連続インテンシティリカバリ
- Authors: Chen Song, Qixing Huang, Chandrajit Bajaj
- Abstract要約: E-CIRは、ぼやけた画像を時間から強度までパラメトリック関数を表すシャープなビデオに変換する。
関数係数を予測するためにディープラーニングモデルをトレーニングする方法を実証する。
最先端のイベント強化型デブロアリング手法と比較して、E-CIRはよりスムーズでリアルな結果を生成する。
- 参考スコア(独自算出の注目度): 28.546457634111015
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A camera begins to sense light the moment we press the shutter button. During
the exposure interval, relative motion between the scene and the camera causes
motion blur, a common undesirable visual artifact. This paper presents E-CIR,
which converts a blurry image into a sharp video represented as a parametric
function from time to intensity. E-CIR leverages events as an auxiliary input.
We discuss how to exploit the temporal event structure to construct the
parametric bases. We demonstrate how to train a deep learning model to predict
the function coefficients. To improve the appearance consistency, we further
introduce a refinement module to propagate visual features among consecutive
frames. Compared to state-of-the-art event-enhanced deblurring approaches,
E-CIR generates smoother and more realistic results. The implementation of
E-CIR is available at https://github.com/chensong1995/E-CIR.
- Abstract(参考訳): シャッターボタンを押せば、カメラが光を感知し始める。
露出間隔の間、シーンとカメラの間の相対的な動きは、共通の望ましくないビジュアルアーティファクトである動きのぼやけを引き起こす。
本稿では,ぼやけた画像を時間から強度までパラメトリック関数を表すシャープなビデオに変換するE-CIRを提案する。
E-CIRは補助入力としてイベントを利用する。
時間的イベント構造を利用してパラメトリックベースを構築する方法について論じる。
本稿では,深層学習モデルを用いて関数係数を推定する方法を示す。
外観整合性を向上させるため,連続フレーム間の視覚特徴を伝達するリファインメントモジュールについても紹介する。
最先端のイベント強化型デブロアリング手法と比較して、E-CIRはよりスムーズでリアルな結果を生成する。
E-CIRの実装はhttps://github.com/chensong1995/E-CIRで公開されている。
関連論文リスト
- Deblurring Neural Radiance Fields with Event-driven Bundle Adjustment [23.15130387716121]
本稿では,学習可能なポーズとNeRFパラメータを協調的に最適化するために,Bundle Adjustment for Deblurring Neural Radiance Fields (EBAD-NeRF)を提案する。
EBAD-NeRFは露光時間中に正確なカメラ軌跡を得ることができ、従来よりもシャープな3D表現を学習することができる。
論文 参考訳(メタデータ) (2024-06-20T14:33:51Z) - Revisiting Event-based Video Frame Interpolation [49.27404719898305]
ダイナミックビジョンセンサーやイベントカメラは、ビデオフレームに豊富な補完情報を提供する。
イベントからの光の流れを推定することは、RGB情報より間違いなく困難である。
イベントベースの中間フレーム合成を複数の単純化段階において漸進的に行う分割・対数戦略を提案する。
論文 参考訳(メタデータ) (2023-07-24T06:51:07Z) - UniINR: Event-guided Unified Rolling Shutter Correction, Deblurring, and Interpolation [20.866360240444426]
高速カメラ移動中にローリングシャッター(RS)カメラで捉えたビデオフレームは、RS歪みとぼやけを同時に示している。
我々は、RSぼけフレームとペアイベントから任意のフレームレートのシャープGSフレームを復元する、UniINRという新しい手法を提案する。
提案手法は, パラメータ0.38Mしか持たない軽量モデルであり, 高効率であり, RSブラーフレームの31倍のフレームレートで2.83ms/frameを実現している。
論文 参考訳(メタデータ) (2023-05-24T11:57:03Z) - Self-Supervised Scene Dynamic Recovery from Rolling Shutter Images and
Events [63.984927609545856]
任意の時間間隔間での画素単位のダイナミックさを予測するために,イベントベース/イントラフレーム補償器(E-IC)を提案する。
提案手法は,実世界のシナリオにおけるイベントベースRS2GSインバージョンにおいて,顕著な性能を示す。
論文 参考訳(メタデータ) (2023-04-14T05:30:02Z) - Joint Video Multi-Frame Interpolation and Deblurring under Unknown
Exposure Time [101.91824315554682]
本研究では,より現実的で挑戦的なタスク – 複数フレームのジョイントビデオと,未知の露光時間下での劣化 – を野心的に目標とする。
我々はまず,入力されたぼやけたフレームから露出認識表現を構築するために,教師付きコントラスト学習の変種を採用する。
次に、プログレッシブ露光適応型畳み込みと動き改善による露出と動きの表現に基づいて、映像再構成ネットワークを構築した。
論文 参考訳(メタデータ) (2023-03-27T09:43:42Z) - Event-based Image Deblurring with Dynamic Motion Awareness [10.81953574179206]
露光時間における実RGBのぼかし画像と関連する事象のペアを含む最初のデータセットを紹介する。
以上の結果より,PSNRは合成データで1.57dB,実イベントデータで1.08dBまで改善された。
論文 参考訳(メタデータ) (2022-08-24T09:39:55Z) - Event-aided Direct Sparse Odometry [54.602311491827805]
本稿では,イベントとフレームを用いた直接単眼視覚計測法であるEDSを紹介する。
我々のアルゴリズムは、イベント生成モデルを利用して、フレーム間のブラインドタイムにおけるカメラの動きを追跡する。
EDSは直接アプローチでイベントとフレームを使用して6-DOF VOを実行する最初の方法である。
論文 参考訳(メタデータ) (2022-04-15T20:40:29Z) - Bringing Rolling Shutter Images Alive with Dual Reversed Distortion [75.78003680510193]
ローリングシャッター(RS)歪みは、時間とともにインスタントグローバルシャッター(GS)フレームから一列のピクセルを選択した結果であると解釈することができる。
我々は、RS時間における速度場の反復学習を通して、デュアル光流列を生成するための新しいエンド・ツー・エンドモデルIFEDを開発した。
論文 参考訳(メタデータ) (2022-03-12T14:57:49Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - An Asynchronous Kalman Filter for Hybrid Event Cameras [13.600773150848543]
イベントカメラはhdrの視覚情報をぼやけることなく捉えるのに理想的だ。
従来のイメージセンサーは、ゆっくりと変化するシーンの絶対強度を効果的に測定するが、高いダイナミックレンジや素早く変化するシーンでは不十分である。
本稿では,ハイダイナミックレンジシナリオのためのイベントベースビデオ再構成パイプラインを提案する。
論文 参考訳(メタデータ) (2020-12-10T11:24:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。