論文の概要: Event Enhanced High-Quality Image Recovery
- arxiv url: http://arxiv.org/abs/2007.08336v1
- Date: Thu, 16 Jul 2020 13:51:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 23:24:30.215584
- Title: Event Enhanced High-Quality Image Recovery
- Title(参考訳): イベント強化高画質イメージリカバリ
- Authors: Bishan Wang, Jingwei He, Lei Yu, Gui-Song Xia, Wen Yang
- Abstract要約: 本稿では,イベントカメラから高品質な画像を取り出すために,イベント強化スパース学習ネットワーク(eSL-Net)を提案する。
合成データセットを用いてトレーニングした後、提案したeSL-Netは、最先端の性能を7~12dB向上させることができる。
- 参考スコア(独自算出の注目度): 34.46486617222021
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With extremely high temporal resolution, event cameras have a large potential
for robotics and computer vision. However, their asynchronous imaging mechanism
often aggravates the measurement sensitivity to noises and brings a physical
burden to increase the image spatial resolution. To recover high-quality
intensity images, one should address both denoising and super-resolution
problems for event cameras. Since events depict brightness changes, with the
enhanced degeneration model by the events, the clear and sharp high-resolution
latent images can be recovered from the noisy, blurry and low-resolution
intensity observations. Exploiting the framework of sparse learning, the events
and the low-resolution intensity observations can be jointly considered. Based
on this, we propose an explainable network, an event-enhanced sparse learning
network (eSL-Net), to recover the high-quality images from event cameras. After
training with a synthetic dataset, the proposed eSL-Net can largely improve the
performance of the state-of-the-art by 7-12 dB. Furthermore, without additional
training process, the proposed eSL-Net can be easily extended to generate
continuous frames with frame-rate as high as the events.
- Abstract(参考訳): 非常に高時間分解能のイベントカメラは、ロボティクスとコンピュータビジョンに大きな可能性を秘めている。
しかし、その非同期撮像機構は、しばしばノイズに対する測定感度を増大させ、画像空間分解能を高めるために物理的負担をもたらす。
高画質のインテンシティ画像を復元するには、イベントカメラのデノイジングとスーパーレゾリューションの両方の問題に対処する必要がある。
イベントは明るさの変化を描いており、事象による変性モデルの改善により、ノイズ、ぼかし、低分解能の観測から鮮明でシャープな高解像度の潜像を復元することができる。
スパース学習の枠組みを開拓し、イベントと低分解能度観測を共同で検討することができる。
そこで本稿では,イベントカメラから高品質な画像を取り出すための,イベント強化スパース学習ネットワーク(eSL-Net)を提案する。
合成データセットを用いてトレーニングした後、提案したeSL-Netは、最先端の性能を7~12dB向上させることができる。
さらに、追加のトレーニングプロセスなしでは、提案するesl-netを容易に拡張でき、フレームレートがイベントと同じくらい高い連続フレームを生成することができる。
関連論文リスト
- Rethinking High-speed Image Reconstruction Framework with Spike Camera [48.627095354244204]
スパイクカメラは連続的なスパイクストリームを生成し、従来のRGBカメラよりも低帯域幅でダイナミックレンジの高速シーンをキャプチャする。
従来のトレーニングパラダイムを超える新しいスパイク・ツー・イメージ再構築フレームワークであるSpikeCLIPを導入する。
実世界の低照度データセットに対する実験により、SpikeCLIPはテクスチャの詳細と回復した画像の輝度バランスを大幅に向上することが示された。
論文 参考訳(メタデータ) (2025-01-08T13:00:17Z) - Learning to Super-Resolve Blurry Images with Events [62.61911224564196]
単一運動ブラインド画像(SRB)からの超解像は, 運動ぼけと低空間分解能の合同劣化により, 深刻な問題となる。
我々は、SRBの負担を軽減するためにイベントを使用し、イベント強化SRB(E-SRB)アルゴリズムを提案する。
提案するeSL-Net++は最先端の手法よりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2023-02-27T13:46:42Z) - Learning to See Through with Events [37.19232535463858]
本稿では,極めて低レイテンシかつ高ダイナミックレンジの非同期イベントに依存するイベントベースSAI(E-SAI)手法を提案する。
収集されたイベントは、最初にRe-focus-Netモジュールによって再フォーカスされ、オフフォーカスイベントを散乱しながら、インフォーカスイベントを調整する。
スパイクニューラルネットワーク (SNN) と畳み込みニューラルネットワーク (CNN) を組み合わせたハイブリッドネットワークを提案する。
論文 参考訳(メタデータ) (2022-12-05T12:51:22Z) - Ev-NeRF: Event Based Neural Radiance Field [8.78321125097048]
Ev-NeRFは、イベントデータから派生したニューラル放射場である。
Ev-NeRFは、超音環境下での高強度画像再構成において、競合性能を実現する。
論文 参考訳(メタデータ) (2022-06-24T18:27:30Z) - Are High-Resolution Event Cameras Really Needed? [62.70541164894224]
低照度条件や高速環境では、低解像度カメラは高解像度カメラより優れ、帯域幅は大幅に小さくなる。
この主張は,高解像度のイベントカメラが画素当たりのイベントレートが高いことを示す実証的証拠と理論的証拠の両方を提示する。
多くの場合、高解像度のイベントカメラは、これらの条件下では低解像度のセンサーに比べてタスク性能が低い。
論文 参考訳(メタデータ) (2022-03-28T12:06:20Z) - MEFNet: Multi-scale Event Fusion Network for Motion Deblurring [62.60878284671317]
従来のフレームベースのカメラは、長時間露光のために必然的に動きがぼやけている。
バイオインスパイアされたカメラの一種として、イベントカメラは、高時間分解能で非同期な方法で強度変化を記録する。
本稿では,イベントベースの画像劣化問題を再考し,これをエンドツーエンドの2段階画像復元ネットワークに展開する。
論文 参考訳(メタデータ) (2021-11-30T23:18:35Z) - Event-based Synthetic Aperture Imaging with a Hybrid Network [30.178111153441666]
本稿では,非常に低レイテンシかつ高ダイナミックレンジで非同期イベントを生成可能なイベントカメラに基づく新しいSAIシステムを提案する。
閉鎖対象を再構築するために、スパイキングニューラルネットワーク(SNN)と畳み込みニューラルネットワーク(CNN)からなるハイブリッドエンコーダデコーダネットワークを提案する。
論文 参考訳(メタデータ) (2021-03-03T12:56:55Z) - Learning to Detect Objects with a 1 Megapixel Event Camera [14.949946376335305]
イベントカメラは、高時間精度、低データレート、高ダイナミックレンジで視覚情報を符号化する。
フィールドの新規性のため、多くのビジョンタスクにおけるイベントベースのシステムの性能は、従来のフレームベースのソリューションに比べて依然として低い。
論文 参考訳(メタデータ) (2020-09-28T16:03:59Z) - EventSR: From Asynchronous Events to Image Reconstruction, Restoration,
and Super-Resolution via End-to-End Adversarial Learning [75.17497166510083]
イベントカメラは強度の変化を感知し、従来のカメラよりも多くの利点がある。
イベントストリームからの強度画像の再構成手法が提案されている。
出力は依然として低解像度(LR)、ノイズ、非現実的である。
本研究では、イベントストリームからLR画像を再構成し、画像品質を高め、EventSRと呼ばれる拡張イメージをアップサンプリングする、新しいエンドツーエンドパイプラインを提案する。
論文 参考訳(メタデータ) (2020-03-17T10:58:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。