論文の概要: Video Reconstruction from a Single Motion Blurred Image using Learned
Dynamic Phase Coding
- arxiv url: http://arxiv.org/abs/2112.14768v1
- Date: Tue, 28 Dec 2021 02:06:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-09 12:56:06.183966
- Title: Video Reconstruction from a Single Motion Blurred Image using Learned
Dynamic Phase Coding
- Title(参考訳): 学習動的位相符号化を用いた単一動きぼけ画像からの映像再構成
- Authors: Erez Yosef, Shay Elmalem, Raja Giryes
- Abstract要約: 単一動きブル画像を用いた映像再構成のためのハイブリッド光デジタル手法を提案する。
我々は、画像取得中にレンズ開口部の動的位相符号化を学習し、運動軌跡を符号化する。
提案した計算カメラは、単一の符号化されたモーションブルー画像から、様々なフレームレートでシーンのシャープなフレームバーストを生成する。
- 参考スコア(独自算出の注目度): 34.76550131783525
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video reconstruction from a single motion-blurred image is a challenging
problem, which can enhance existing cameras' capabilities. Recently, several
works addressed this task using conventional imaging and deep learning. Yet,
such purely-digital methods are inherently limited, due to direction ambiguity
and noise sensitivity. Some works proposed to address these limitations using
non-conventional image sensors, however, such sensors are extremely rare and
expensive. To circumvent these limitations with simpler means, we propose a
hybrid optical-digital method for video reconstruction that requires only
simple modifications to existing optical systems. We use a learned dynamic
phase-coding in the lens aperture during the image acquisition to encode the
motion trajectories, which serve as prior information for the video
reconstruction process. The proposed computational camera generates a sharp
frame burst of the scene at various frame rates from a single coded
motion-blurred image, using an image-to-video convolutional neural network. We
present advantages and improved performance compared to existing methods, using
both simulations and a real-world camera prototype.
- Abstract(参考訳): 単一モーションブル画像からの映像再構成は、既存のカメラの能力を向上する上で難しい問題である。
近年,従来の画像と深層学習を用いてこの問題に対処する研究がいくつかある。
しかし、方向の曖昧さとノイズ感度のため、純粋なデジタル手法は本質的に制限されている。
従来のイメージセンサーを使わずにこれらの制限に対処する研究もあるが、そのようなセンサーは非常に稀で高価である。
これらの制限を簡単な方法で回避するために,既存の光学系に単純な変更を加えるだけでよいハイブリッド光デジタル変換法を提案する。
我々は、画像取得中にレンズ開口部の動的位相符号化を学習し、映像再構成プロセスの先行情報となる動き軌跡を符号化する。
提案する計算カメラは、画像対ビデオ畳み込みニューラルネットワークを用いて、単一の符号化された動画像から、様々なフレームレートでシーンのシャープフレームバーストを生成する。
シミュレーションと実写カメラのプロトタイプを用いて,既存手法と比較して利点と性能を向上した。
関連論文リスト
- GANESH: Generalizable NeRF for Lensless Imaging [12.985055542373791]
GANESHは,レンズレス画像からの高精細化と新鮮視合成を実現するための新しいフレームワークである。
シーン固有のトレーニングを必要とする既存の方法とは異なり、本手法は各シーンで再トレーニングすることなく、オンザフライ推論をサポートする。
この領域の研究を容易にするために、最初のマルチビューレンズレスデータセットであるLenslessScenesも提示する。
論文 参考訳(メタデータ) (2024-11-07T15:47:07Z) - Lightweight High-Speed Photography Built on Coded Exposure and Implicit Neural Representation of Videos [34.152901518593396]
高速シーンを高解像度で記録できるコンパクトカメラの需要は着実に増加している。
しかし、そのような能力を達成するには、しばしば高帯域幅の要求が伴うため、低容量のプラットフォームには不適当で重いシステムになる。
本稿では,ビデオの暗黙的表現と古典的符号化露光画像技術を組み合わせることで,これらの課題に対処する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-22T03:41:13Z) - Joint Video Multi-Frame Interpolation and Deblurring under Unknown
Exposure Time [101.91824315554682]
本研究では,より現実的で挑戦的なタスク – 複数フレームのジョイントビデオと,未知の露光時間下での劣化 – を野心的に目標とする。
我々はまず,入力されたぼやけたフレームから露出認識表現を構築するために,教師付きコントラスト学習の変種を採用する。
次に、プログレッシブ露光適応型畳み込みと動き改善による露出と動きの表現に基づいて、映像再構成ネットワークを構築した。
論文 参考訳(メタデータ) (2023-03-27T09:43:42Z) - DynIBaR: Neural Dynamic Image-Based Rendering [79.44655794967741]
複雑な動的シーンを描写したモノクロ映像から新しいビューを合成する問題に対処する。
我々は,近傍のビューから特徴を集約することで,新しい視点を合成するボリューム画像ベースのレンダリングフレームワークを採用する。
動的シーンデータセットにおける最先端手法の大幅な改善を示す。
論文 参考訳(メタデータ) (2022-11-20T20:57:02Z) - Learning rich optical embeddings for privacy-preserving lensless image
classification [17.169529483306103]
我々は、光学系をエンコーダとしてキャストするユニークな多重化特性を利用して、カメラセンサーに直接学習した埋め込みを生成する。
画像分類の文脈では、エンコーダのパラメータと画像分類器のパラメータをエンドツーエンドで共同で最適化する。
我々の実験は、レンズレス光エンコーダとデジタル処理を共同で学習することで、センサーに低解像度の埋め込みが可能であることを示し、その結果、これらの測定から有意義な画像の復元がはるかに困難であることから、プライバシーが向上することを示している。
論文 参考訳(メタデータ) (2022-06-03T07:38:09Z) - Restoration of Video Frames from a Single Blurred Image with Motion
Understanding [69.90724075337194]
単一モーション赤画像からクリーンな映像フレームを生成するための新しいフレームワークを提案する。
一つのぼやけた画像からの映像復元を逆問題として、クリーンな画像シーケンスとそれぞれの動きを潜伏要因として設定する。
提案手法は,空間トランスフォーマネットワークモジュールを用いたanblur-decoder構造に基づいている。
論文 参考訳(メタデータ) (2021-04-19T08:32:57Z) - Optical Flow Estimation from a Single Motion-blurred Image [66.2061278123057]
画像内の動きのぼかしは、基本的なコンピュータビジョンの問題に実用的な関心を持つ可能性があります。
本研究では,単一動画像からの光流れをエンドツーエンドで推定する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:45:18Z) - Motion-blurred Video Interpolation and Extrapolation [72.3254384191509]
本稿では,映像から鮮明なフレームをエンドツーエンドに切り離し,補間し,外挿する新しい枠組みを提案する。
予測フレーム間の時間的コヒーレンスを確保し,潜在的な時間的あいまいさに対処するために,単純で効果的なフローベースルールを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:18:25Z) - Exploiting Raw Images for Real-Scene Super-Resolution [105.18021110372133]
本稿では,合成データと実撮影画像とのギャップを埋めるために,実シーンにおける単一画像の超解像化の問題について検討する。
本稿では,デジタルカメラの撮像過程を模倣して,よりリアルなトレーニングデータを生成する手法を提案する。
また、原画像に記録された放射情報を活用するために、2分岐畳み込みニューラルネットワークを開発した。
論文 参考訳(メタデータ) (2021-02-02T16:10:15Z) - FlatNet: Towards Photorealistic Scene Reconstruction from Lensless
Measurements [31.353395064815892]
レンズレス再構成における画像品質の大幅な向上を図った非定位深層学習に基づく再構成手法を提案する。
われわれのアプローチは、$textitFlatNet$と呼ばれ、マスクベースのレンズレスカメラから高品質のフォトリアリスティック画像を再構成するためのフレームワークを定めている。
論文 参考訳(メタデータ) (2020-10-29T09:20:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。