論文の概要: A Unified Framework for Compressive Video Recovery from Coded Exposure
Techniques
- arxiv url: http://arxiv.org/abs/2011.05532v1
- Date: Wed, 11 Nov 2020 03:45:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 00:53:18.609571
- Title: A Unified Framework for Compressive Video Recovery from Coded Exposure
Techniques
- Title(参考訳): 符号化露光技術による圧縮映像復元のための統一フレームワーク
- Authors: Prasan Shedligeri, Anupama S, Kaushik Mitra
- Abstract要約: Coded-2-Bucketカメラは、単一の露光で2つの圧縮された測定値を取得することができる。
私たちの学習ベースのフレームワークは、シフト可変畳み込み層と、完全な畳み込みディープニューラルネットワークで構成されています。
ほとんどのシーンポイントが静的である場合、C2Bセンサーは1ピクセル単位の符号化された測定値を取得するよりも大きな利点がある。
- 参考スコア(独自算出の注目度): 18.31448635476334
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Several coded exposure techniques have been proposed for acquiring high frame
rate videos at low bandwidth. Most recently, a Coded-2-Bucket camera has been
proposed that can acquire two compressed measurements in a single exposure,
unlike previously proposed coded exposure techniques, which can acquire only a
single measurement. Although two measurements are better than one for an
effective video recovery, we are yet unaware of the clear advantage of two
measurements, either quantitatively or qualitatively. Here, we propose a
unified learning-based framework to make such a qualitative and quantitative
comparison between those which capture only a single coded image (Flutter
Shutter, Pixel-wise coded exposure) and those that capture two measurements per
exposure (C2B). Our learning-based framework consists of a shift-variant
convolutional layer followed by a fully convolutional deep neural network. Our
proposed unified framework achieves the state of the art reconstructions in all
three sensing techniques. Further analysis shows that when most scene points
are static, the C2B sensor has a significant advantage over acquiring a single
pixel-wise coded measurement. However, when most scene points undergo motion,
the C2B sensor has only a marginal benefit over the single pixel-wise coded
exposure measurement.
- Abstract(参考訳): 低帯域幅で高フレームレートビデオを取得するための符号化露光技術が提案されている。
最近では、コード化された露光技術とは異なり、圧縮された2つの測定値を単一の露光で取得できるCoded-2-Bucketカメラが提案されている。
2つの測定は有効なビデオリカバリにおいて1つよりも優れているが、定量的または定性的に2つの測定の利点が明らかであることは、まだ分かっていない。
本稿では,1つの符号化画像(フラッターシャッター,ピクセル単位の符号化露光)のみを撮影するものと,露出当たり2つの測定値(c2b)を定量的に定量的に比較した統一学習フレームワークを提案する。
学習に基づくフレームワークは、シフト可変畳み込み層と、完全畳み込み型ディープニューラルネットワークからなる。
提案する統一フレームワークは,3つのセンシング技術すべてにおいて,アートレコンストラクションの現状を実現する。
さらに分析したところ、ほとんどのシーンポイントが静的である場合、C2Bセンサーは1ピクセル単位の符号化された測定値を取得するよりも大きな利点があることがわかった。
しかし、ほとんどのシーンポイントが動いているとき、C2Bセンサーは1ピクセル単位の符号化露光測定よりも限界的な利点しか持たない。
関連論文リスト
- bit2bit: 1-bit quanta video reconstruction via self-supervised photon prediction [57.199618102578576]
疎二分量時間画像データから高画質の画像スタックを元の解像度で再構成する新しい方法であるbit2bitを提案する。
Poisson denoisingの最近の研究に触発されて、スパースバイナリ光子データから高密度な画像列を生成するアルゴリズムを開発した。
本研究では,様々な課題の画像条件下でのSPADの高速映像を多種多種に含む新しいデータセットを提案する。
論文 参考訳(メタデータ) (2024-10-30T17:30:35Z) - Passive Snapshot Coded Aperture Dual-Pixel RGB-D Imaging [25.851398356458425]
単発3Dセンシングは、顕微鏡、医用画像、手術ナビゲーション、自律運転など、多くの応用分野において有用である。
画像レンズに符号化開口とDPセンサを併用したCADS(Coded Aperture Dual-Pixel Sensing)を提案する。
以上の結果から,ALF(All-in-focus)推定では1.5dBPSNRが改善し,DPセンシングでは5-6%の深さ推定精度が得られた。
論文 参考訳(メタデータ) (2024-02-28T06:45:47Z) - Neuromorphic Synergy for Video Binarization [54.195375576583864]
バイモーダルオブジェクトは視覚システムによって容易に認識できる情報を埋め込む視覚形式として機能する。
ニューロモルフィックカメラは、動きのぼかしを緩和する新しい機能を提供するが、最初にブルーを脱色し、画像をリアルタイムでバイナライズするのは簡単ではない。
本稿では,イベント空間と画像空間の両方で独立に推論を行うために,バイモーダル目標特性の事前知識を活用するイベントベースバイナリ再構築手法を提案する。
また、このバイナリ画像を高フレームレートバイナリビデオに伝搬する効率的な統合手法も開発している。
論文 参考訳(メタデータ) (2024-02-20T01:43:51Z) - Context-Aware Video Reconstruction for Rolling Shutter Cameras [52.28710992548282]
本稿では,文脈対応のGSビデオ再構成アーキテクチャを提案する。
まず、2つのRSフレームの画素が共通のGSフレームに歪むように、左右の運動場を推定する。
そこで,両面閉塞マスクとともにGSフレーム合成を誘導し,高忠実度GSビデオフレームを生成するための改良手法を提案する。
論文 参考訳(メタデータ) (2022-05-25T17:05:47Z) - Image-free single-pixel segmentation [3.3808025405314086]
本稿では,画像のない単一画素分割技術について報告する。
この技術は、構造的照明と単画素検出を組み合わせることで、シーンのセグメンテーション情報を効率的にサンプリングし、多重化する。
この画像自由分割技術は、UAVや無人車両など、様々なリソース制限されたプラットフォームに広く応用できると期待する。
論文 参考訳(メタデータ) (2021-08-24T10:06:53Z) - Time-Multiplexed Coded Aperture Imaging: Learned Coded Aperture and
Pixel Exposures for Compressive Imaging Systems [56.154190098338965]
提案した時間多重符号化開口(TMCA)をエンドツーエンドで最適化できることを示した。
tmcaは圧縮光野イメージングとハイパースペクトルイメージングの2つの異なる応用において、より良いコード化されたスナップショットを誘導する。
この凝固法は、最先端の圧縮画像システムよりも4dB以上性能が高い。
論文 参考訳(メタデータ) (2021-04-06T22:42:34Z) - Motion-blurred Video Interpolation and Extrapolation [72.3254384191509]
本稿では,映像から鮮明なフレームをエンドツーエンドに切り離し,補間し,外挿する新しい枠組みを提案する。
予測フレーム間の時間的コヒーレンスを確保し,潜在的な時間的あいまいさに対処するために,単純で効果的なフローベースルールを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:18:25Z) - Video Reconstruction by Spatio-Temporal Fusion of Blurred-Coded Image
Pair [16.295479896947853]
1つのモーションブルーの画像からビデオを取り出すのは、非常に不適切な問題だ。
従来のコード付き露光フレームワークはより適しているが、時空ボリュームのごく一部しかサンプリングできない。
完全露光画像に含まれる補完情報と符号化された露光画像を用いて高忠実度映像を復元する。
論文 参考訳(メタデータ) (2020-10-20T06:08:42Z) - Single Image Brightening via Multi-Scale Exposure Fusion with Hybrid
Learning [48.890709236564945]
小さいISOと小さな露光時間は、通常、背面または低い光条件下で画像をキャプチャするために使用される。
本稿では、そのような画像を明るくするために、単一の画像輝度化アルゴリズムを提案する。
提案アルゴリズムは,露出時間が大きい2つの仮想画像を生成するための,ユニークなハイブリッド学習フレームワークを含む。
論文 参考訳(メタデータ) (2020-07-04T08:23:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。