論文の概要: Let's See Clearly: Contaminant Artifact Removal for Moving Cameras
- arxiv url: http://arxiv.org/abs/2104.08852v1
- Date: Sun, 18 Apr 2021 13:37:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 13:52:56.040562
- Title: Let's See Clearly: Contaminant Artifact Removal for Moving Cameras
- Title(参考訳): 動くカメラで汚染されたアーティファクトを取り除く方法
- Authors: Xiaoyu Li, Bo Zhang, Jing Liao, Pedro V. Sander
- Abstract要約: カメラレンズに付着するほこり、汚れ、湿気などの汚染物質は、結果の画像やビデオの品質と明快さに大きく影響します。
本稿では,これらの汚染物質を自動的に除去し,クリーンなビデオを作成するためのビデオ復元手法を提案する。
- 参考スコア(独自算出の注目度): 26.154599156027604
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contaminants such as dust, dirt and moisture adhering to the camera lens can
greatly affect the quality and clarity of the resulting image or video. In this
paper, we propose a video restoration method to automatically remove these
contaminants and produce a clean video. Our approach first seeks to detect
attention maps that indicate the regions that need to be restored. In order to
leverage the corresponding clean pixels from adjacent frames, we propose a flow
completion module to hallucinate the flow of the background scene to the
attention regions degraded by the contaminants. Guided by the attention maps
and completed flows, we propose a recurrent technique to restore the input
frame by fetching clean pixels from adjacent frames. Finally, a multi-frame
processing stage is used to further process the entire video sequence in order
to enforce temporal consistency. The entire network is trained on a synthetic
dataset that approximates the physical lighting properties of contaminant
artifacts. This new dataset and our novel framework lead to our method that is
able to address different contaminants and outperforms competitive restoration
approaches both qualitatively and quantitatively.
- Abstract(参考訳): カメラレンズに付着したほこり、汚れ、水分などの汚染物質は、結果の画像や映像の品質や明瞭さに大きな影響を与える。
本稿では,これらの汚染物質を自動的に除去し,クリーンな映像を作成するビデオ復元手法を提案する。
このアプローチはまず,復元が必要な領域を示すアテンションマップの検出を目標としている。
隣接するフレームから対応するクリーンピクセルを活用するために,汚染物質によって劣化した注目領域への背景シーンの流れを幻覚させるためのフロー補完モジュールを提案する。
注意マップと完了フローの導出により,隣接フレームからクリーンピクセルを取り込んで入力フレームを復元するリカレント手法を提案する。
最後に、時間的一貫性を強制するために、ビデオシーケンス全体をさらに処理するために、マルチフレーム処理ステージを使用する。
ネットワーク全体は、汚染物の物理的照明特性を近似する合成データセットに基づいて訓練される。
この新たなデータセットと新しいフレームワークは、異なる汚染物質に対処し、質的にも量的にも競争力のある復元アプローチを上回る性能を発揮する。
関連論文リスト
- Generative Omnimatte: Learning to Decompose Video into Layers [29.098471541412113]
本報告では,全方位問題に対処する新しい生成階層化ビデオ分解フレームワークを提案する。
私たちの中核となる考え方は、特定の物体によって引き起こされるシーン効果を識別し除去するために、ビデオ拡散モデルを訓練することです。
我々は,このモデルを,小さく,慎重にキュレートしたデータセットを用いて,既存のビデオインペイントモデルから微調整できることを示す。
論文 参考訳(メタデータ) (2024-11-25T18:59:57Z) - RecDiffusion: Rectangling for Image Stitching with Diffusion Models [53.824503710254206]
画像縫合整形のための新しい拡散学習フレームワーク textbfRecDiffusion を提案する。
このフレームワークは運動拡散モデル(MDM)を組み合わせて運動場を生成し、縫合された画像の不規則な境界から幾何学的に修正された中間体へ効果的に遷移する。
論文 参考訳(メタデータ) (2024-03-28T06:22:45Z) - Fill in the ____ (a Diffusion-based Image Inpainting Pipeline) [0.0]
塗り絵は、画像を撮り、失った、または故意に隠された部分を生成する過程である。
現代の塗装技術は、有能な完成物を生成する際、顕著な能力を示している。
既存のモデルにおける重要なギャップに対処し、何が正確に生成されたかをプロンプトし制御する能力に焦点を当てる。
論文 参考訳(メタデータ) (2024-03-24T05:26:55Z) - Removing Interference and Recovering Content Imaginatively for Visible
Watermark Removal [63.576748565274706]
本研究では,Removing Interference and Recovering Content Imaginatively (RIRCI)フレームワークについて紹介する。
RIRCIは2段階のアプローチを具現化しており、最初のフェーズは透かし成分の識別と分離に焦点を当て、次のフェーズは背景コンテンツの復元に焦点を当てている。
本モデルでは,半透明透かしの下の固有背景情報を完全に探索できるデュアルパスネットワークを用いる。
論文 参考訳(メタデータ) (2023-12-22T02:19:23Z) - Neural Image Re-Exposure [86.42475408644822]
不適切なシャッターは、ぼやけた画像、ビデオの不連続、あるいはローリングシャッターアーティファクトにつながる可能性がある。
ニューラルネットワークに基づく画像再露法フレームワークを提案する。
視覚的潜在空間構築のためのエンコーダ、所望のシャッター戦略でニューラルフィルムに情報を集約する再露光モジュール、およびニューラルフィルムを所望の画像に「展開」するためのデコーダから構成される。
論文 参考訳(メタデータ) (2023-05-23T01:55:37Z) - Exposure Fusion for Hand-held Camera Inputs with Optical Flow and
PatchMatch [53.149395644547226]
ハンドヘルドカメラによるマルチ露光画像融合のためのハイブリッド合成法を提案する。
提案手法は,このような動作に対処し,各入力の露光情報を効果的に維持する。
実験の結果,本手法の有効性とロバスト性を示した。
論文 参考訳(メタデータ) (2023-04-10T09:06:37Z) - Restoration of Video Frames from a Single Blurred Image with Motion
Understanding [69.90724075337194]
単一モーション赤画像からクリーンな映像フレームを生成するための新しいフレームワークを提案する。
一つのぼやけた画像からの映像復元を逆問題として、クリーンな画像シーケンスとそれぞれの動きを潜伏要因として設定する。
提案手法は,空間トランスフォーマネットワークモジュールを用いたanblur-decoder構造に基づいている。
論文 参考訳(メタデータ) (2021-04-19T08:32:57Z) - Motion-blurred Video Interpolation and Extrapolation [72.3254384191509]
本稿では,映像から鮮明なフレームをエンドツーエンドに切り離し,補間し,外挿する新しい枠組みを提案する。
予測フレーム間の時間的コヒーレンスを確保し,潜在的な時間的あいまいさに対処するために,単純で効果的なフローベースルールを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:18:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。