論文の概要: Motion Deblurring using Spatiotemporal Phase Aperture Coding
- arxiv url: http://arxiv.org/abs/2002.07483v1
- Date: Tue, 18 Feb 2020 10:46:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 20:26:44.228247
- Title: Motion Deblurring using Spatiotemporal Phase Aperture Coding
- Title(参考訳): 時空間位相アパーチャ符号化による動きの劣化
- Authors: Shay Elmalem, Raja Giryes and Emanuel Marom
- Abstract要約: 本稿では, 動きの鈍化に対する計算画像化手法を提案する。
運動の軌跡を中間光学画像に符号化する。
カラーキューは、ブラインドデブロアリングプロセスの事前情報として機能する。
- 参考スコア(独自算出の注目度): 34.76550131783525
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motion blur is a known issue in photography, as it limits the exposure time
while capturing moving objects. Extensive research has been carried to
compensate for it. In this work, a computational imaging approach for motion
deblurring is proposed and demonstrated. Using dynamic phase-coding in the lens
aperture during the image acquisition, the trajectory of the motion is encoded
in an intermediate optical image. This encoding embeds both the motion
direction and extent by coloring the spatial blur of each object. The color
cues serve as prior information for a blind deblurring process, implemented
using a convolutional neural network (CNN) trained to utilize such coding for
image restoration. We demonstrate the advantage of the proposed approach over
blind-deblurring with no coding and other solutions that use coded acquisition,
both in simulation and real-world experiments.
- Abstract(参考訳): 動きのぼやけは写真でよく知られた問題であり、物体を捉えながら露光時間を制限している。
補うために大規模な研究が行われている。
そこで本研究では, 動きの鈍化に対する画像処理手法を提案する。
画像取得時のレンズ開口部における動的位相符号化を用いて、運動の軌跡を中間光学画像に符号化する。
この符号化は、各対象の空間的ぼかしを着色することにより、動き方向と範囲の両方を埋め込みます。
カラーキューは、画像復元に利用するために訓練された畳み込みニューラルネットワーク(cnn)を使用して、ブラインドデブラリングプロセスの事前情報として機能する。
提案手法は,シミュレーションと実世界実験の両方において,コーディングを伴わないブラインドデブラリングと,コード取得を利用した他のソリューションの利点を実証する。
関連論文リスト
- Motion-adaptive Separable Collaborative Filters for Blind Motion Deblurring [71.60457491155451]
様々な動きによって生じる画像のぼかしを除去することは、難しい問題である。
本研究では,動き適応型分離型協調フィルタと呼ばれる実世界のデブロアリングフィルタモデルを提案する。
本手法は,実世界の動きのぼかし除去に有効な解法を提供し,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-04-19T19:44:24Z) - Treating Motion as Option with Output Selection for Unsupervised Video
Object Segmentation [17.71871884366252]
ビデオオブジェクトセグメンテーション(VOS)は、オブジェクトに関する外部のガイダンスなしで、ビデオ内の最も健全なオブジェクトを検出することを目的としている。
近年,光学フローマップから抽出した動きキューとRGB画像から抽出した外観キューを協調的に利用する手法が提案されている。
本稿では,動作キューを任意に扱うことで,新たな動作・アズ・オプション・ネットワークを提案する。
論文 参考訳(メタデータ) (2023-09-26T09:34:13Z) - Deep Dynamic Scene Deblurring from Optical Flow [53.625999196063574]
汚れは視覚的により快適な写真を提供し、写真がより便利になる。
非均一な曖昧さを数学的にモデル化することは困難である。
我々は,難解な特徴から鮮明な画像を復元する畳み込みニューラルネットワーク(CNN)を開発した。
論文 参考訳(メタデータ) (2023-01-18T06:37:21Z) - A Constrained Deformable Convolutional Network for Efficient Single
Image Dynamic Scene Blind Deblurring with Spatially-Variant Motion Blur
Kernels Estimation [12.744989551644744]
本稿では,効率的なシングルイメージダイナミックシーンブラインドブルのための制約付き変形可能な畳み込みネットワーク(CDCN)を提案する。
CDCNは、高精度な空間変動運動ぼかしカーネル推定と高品質な画像復元を同時に達成する。
論文 参考訳(メタデータ) (2022-08-23T03:28:21Z) - Efficient Video Deblurring Guided by Motion Magnitude [37.25713728458234]
本稿では,MMP(Motion magnitude prior)を高効率なディープビデオデブロアリングのためのガイダンスとして利用する新しいフレームワークを提案する。
MMPは、空間的および時間的ボケレベル情報の両方で構成されており、ビデオデブロアリングのための効率的なリカレントニューラルネットワーク(RNN)にさらに統合することができる。
論文 参考訳(メタデータ) (2022-07-27T08:57:48Z) - Implicit Motion Handling for Video Camouflaged Object Detection [60.98467179649398]
本稿では,新しいビデオカモフラージュオブジェクト検出(VCOD)フレームワークを提案する。
短期的および長期的整合性を利用して、ビデオフレームからカモフラージュされたオブジェクトを検出する。
論文 参考訳(メタデータ) (2022-03-14T17:55:41Z) - Video Reconstruction from a Single Motion Blurred Image using Learned
Dynamic Phase Coding [34.76550131783525]
単一動きブル画像を用いた映像再構成のためのハイブリッド光デジタル手法を提案する。
我々は、画像取得中にレンズ開口部の動的位相符号化を学習し、運動軌跡を符号化する。
提案した計算カメラは、単一の符号化されたモーションブルー画像から、様々なフレームレートでシーンのシャープなフレームバーストを生成する。
論文 参考訳(メタデータ) (2021-12-28T02:06:44Z) - Optical Flow Estimation from a Single Motion-blurred Image [66.2061278123057]
画像内の動きのぼかしは、基本的なコンピュータビジョンの問題に実用的な関心を持つ可能性があります。
本研究では,単一動画像からの光流れをエンドツーエンドで推定する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:45:18Z) - Generative Modelling of BRDF Textures from Flash Images [50.660026124025265]
我々は、容易にキャプチャ、セマンティックな編集、一貫した、視覚素材の外観の効率よく再現できる潜在空間を学習する。
2番目のステップでは、材料コードに基づいて、私たちの方法は、BRDFモデルパラメータの無限で多様な空間フィールドを生成します。
論文 参考訳(メタデータ) (2021-02-23T18:45:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。