論文の概要: A Unified Framework for Compressive Video Recovery from Coded Exposure
Techniques
- arxiv url: http://arxiv.org/abs/2011.05532v1
- Date: Wed, 11 Nov 2020 03:45:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 00:53:18.609571
- Title: A Unified Framework for Compressive Video Recovery from Coded Exposure
Techniques
- Title(参考訳): 符号化露光技術による圧縮映像復元のための統一フレームワーク
- Authors: Prasan Shedligeri, Anupama S, Kaushik Mitra
- Abstract要約: Coded-2-Bucketカメラは、単一の露光で2つの圧縮された測定値を取得することができる。
私たちの学習ベースのフレームワークは、シフト可変畳み込み層と、完全な畳み込みディープニューラルネットワークで構成されています。
ほとんどのシーンポイントが静的である場合、C2Bセンサーは1ピクセル単位の符号化された測定値を取得するよりも大きな利点がある。
- 参考スコア(独自算出の注目度): 18.31448635476334
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Several coded exposure techniques have been proposed for acquiring high frame
rate videos at low bandwidth. Most recently, a Coded-2-Bucket camera has been
proposed that can acquire two compressed measurements in a single exposure,
unlike previously proposed coded exposure techniques, which can acquire only a
single measurement. Although two measurements are better than one for an
effective video recovery, we are yet unaware of the clear advantage of two
measurements, either quantitatively or qualitatively. Here, we propose a
unified learning-based framework to make such a qualitative and quantitative
comparison between those which capture only a single coded image (Flutter
Shutter, Pixel-wise coded exposure) and those that capture two measurements per
exposure (C2B). Our learning-based framework consists of a shift-variant
convolutional layer followed by a fully convolutional deep neural network. Our
proposed unified framework achieves the state of the art reconstructions in all
three sensing techniques. Further analysis shows that when most scene points
are static, the C2B sensor has a significant advantage over acquiring a single
pixel-wise coded measurement. However, when most scene points undergo motion,
the C2B sensor has only a marginal benefit over the single pixel-wise coded
exposure measurement.
- Abstract(参考訳): 低帯域幅で高フレームレートビデオを取得するための符号化露光技術が提案されている。
最近では、コード化された露光技術とは異なり、圧縮された2つの測定値を単一の露光で取得できるCoded-2-Bucketカメラが提案されている。
2つの測定は有効なビデオリカバリにおいて1つよりも優れているが、定量的または定性的に2つの測定の利点が明らかであることは、まだ分かっていない。
本稿では,1つの符号化画像(フラッターシャッター,ピクセル単位の符号化露光)のみを撮影するものと,露出当たり2つの測定値(c2b)を定量的に定量的に比較した統一学習フレームワークを提案する。
学習に基づくフレームワークは、シフト可変畳み込み層と、完全畳み込み型ディープニューラルネットワークからなる。
提案する統一フレームワークは,3つのセンシング技術すべてにおいて,アートレコンストラクションの現状を実現する。
さらに分析したところ、ほとんどのシーンポイントが静的である場合、C2Bセンサーは1ピクセル単位の符号化された測定値を取得するよりも大きな利点があることがわかった。
しかし、ほとんどのシーンポイントが動いているとき、C2Bセンサーは1ピクセル単位の符号化露光測定よりも限界的な利点しか持たない。
関連論文リスト
- Passive Snapshot Coded Aperture Dual-Pixel RGB-D Imaging [27.147735356737552]
単発3Dセンシングは、顕微鏡、医用画像、手術ナビゲーション、自律運転など、多くの応用分野において有用である。
画像レンズに符号化開口とDPセンサを併用したCADS(Coded Aperture Dual-Pixel Sensing)を提案する。
その結果,全焦点推定(AIF)では$1.5dBPSNRが改善し,DPセンシングでは5-6%の深さ推定精度が向上した。
論文 参考訳(メタデータ) (2024-02-28T06:45:47Z) - Learning Exposure Correction in Dynamic Scenes [26.072632568435306]
我々は、露光不足と露光過多の両方を含む、世界初の実世界のペアビデオデータセットを構築した。
空間アライメントを実現するために,2台のデジタル一眼レフカメラとビームスプリッタを用いて不適切な露光映像と通常の露光映像を同時に撮影する。
本稿では,Retinex理論に基づくビデオ露光補正ネットワーク(VECNet)を提案する。
論文 参考訳(メタデータ) (2024-02-27T08:19:51Z) - Neuromorphic Synergy for Video Binarization [54.195375576583864]
バイモーダルオブジェクトは視覚システムによって容易に認識できる情報を埋め込む視覚形式として機能する。
ニューロモルフィックカメラは、動きのぼかしを緩和する新しい機能を提供するが、最初にブルーを脱色し、画像をリアルタイムでバイナライズするのは簡単ではない。
本稿では,イベント空間と画像空間の両方で独立に推論を行うために,バイモーダル目標特性の事前知識を活用するイベントベースバイナリ再構築手法を提案する。
また、このバイナリ画像を高フレームレートバイナリビデオに伝搬する効率的な統合手法も開発している。
論文 参考訳(メタデータ) (2024-02-20T01:43:51Z) - IBVC: Interpolation-driven B-frame Video Compression [68.18440522300536]
Bフレームビデオ圧縮は、双方向動作推定と動き補償(MEMC)符号化をミドルフレーム再構成に適用することを目的としている。
従来の学習アプローチでは、しばしば双方向の光フロー推定に依存するニューラルネットワークのPフレームコーデックをBフレームに直接拡張する。
これらの問題に対処するために,IBVC (Interpolation-B-frame Video Compression) という単純な構造を提案する。
論文 参考訳(メタデータ) (2023-09-25T02:45:51Z) - Context-Aware Video Reconstruction for Rolling Shutter Cameras [52.28710992548282]
本稿では,文脈対応のGSビデオ再構成アーキテクチャを提案する。
まず、2つのRSフレームの画素が共通のGSフレームに歪むように、左右の運動場を推定する。
そこで,両面閉塞マスクとともにGSフレーム合成を誘導し,高忠実度GSビデオフレームを生成するための改良手法を提案する。
論文 参考訳(メタデータ) (2022-05-25T17:05:47Z) - Image-free single-pixel segmentation [3.3808025405314086]
本稿では,画像のない単一画素分割技術について報告する。
この技術は、構造的照明と単画素検出を組み合わせることで、シーンのセグメンテーション情報を効率的にサンプリングし、多重化する。
この画像自由分割技術は、UAVや無人車両など、様々なリソース制限されたプラットフォームに広く応用できると期待する。
論文 参考訳(メタデータ) (2021-08-24T10:06:53Z) - Time-Multiplexed Coded Aperture Imaging: Learned Coded Aperture and
Pixel Exposures for Compressive Imaging Systems [56.154190098338965]
提案した時間多重符号化開口(TMCA)をエンドツーエンドで最適化できることを示した。
tmcaは圧縮光野イメージングとハイパースペクトルイメージングの2つの異なる応用において、より良いコード化されたスナップショットを誘導する。
この凝固法は、最先端の圧縮画像システムよりも4dB以上性能が高い。
論文 参考訳(メタデータ) (2021-04-06T22:42:34Z) - Motion-blurred Video Interpolation and Extrapolation [72.3254384191509]
本稿では,映像から鮮明なフレームをエンドツーエンドに切り離し,補間し,外挿する新しい枠組みを提案する。
予測フレーム間の時間的コヒーレンスを確保し,潜在的な時間的あいまいさに対処するために,単純で効果的なフローベースルールを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:18:25Z) - Video Reconstruction by Spatio-Temporal Fusion of Blurred-Coded Image
Pair [16.295479896947853]
1つのモーションブルーの画像からビデオを取り出すのは、非常に不適切な問題だ。
従来のコード付き露光フレームワークはより適しているが、時空ボリュームのごく一部しかサンプリングできない。
完全露光画像に含まれる補完情報と符号化された露光画像を用いて高忠実度映像を復元する。
論文 参考訳(メタデータ) (2020-10-20T06:08:42Z) - Single Image Brightening via Multi-Scale Exposure Fusion with Hybrid
Learning [48.890709236564945]
小さいISOと小さな露光時間は、通常、背面または低い光条件下で画像をキャプチャするために使用される。
本稿では、そのような画像を明るくするために、単一の画像輝度化アルゴリズムを提案する。
提案アルゴリズムは,露出時間が大きい2つの仮想画像を生成するための,ユニークなハイブリッド学習フレームワークを含む。
論文 参考訳(メタデータ) (2020-07-04T08:23:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。