論文の概要: Let's See Clearly: Contaminant Artifact Removal for Moving Cameras
- arxiv url: http://arxiv.org/abs/2104.08852v1
- Date: Sun, 18 Apr 2021 13:37:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 13:52:56.040562
- Title: Let's See Clearly: Contaminant Artifact Removal for Moving Cameras
- Title(参考訳): 動くカメラで汚染されたアーティファクトを取り除く方法
- Authors: Xiaoyu Li, Bo Zhang, Jing Liao, Pedro V. Sander
- Abstract要約: カメラレンズに付着するほこり、汚れ、湿気などの汚染物質は、結果の画像やビデオの品質と明快さに大きく影響します。
本稿では,これらの汚染物質を自動的に除去し,クリーンなビデオを作成するためのビデオ復元手法を提案する。
- 参考スコア(独自算出の注目度): 26.154599156027604
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contaminants such as dust, dirt and moisture adhering to the camera lens can
greatly affect the quality and clarity of the resulting image or video. In this
paper, we propose a video restoration method to automatically remove these
contaminants and produce a clean video. Our approach first seeks to detect
attention maps that indicate the regions that need to be restored. In order to
leverage the corresponding clean pixels from adjacent frames, we propose a flow
completion module to hallucinate the flow of the background scene to the
attention regions degraded by the contaminants. Guided by the attention maps
and completed flows, we propose a recurrent technique to restore the input
frame by fetching clean pixels from adjacent frames. Finally, a multi-frame
processing stage is used to further process the entire video sequence in order
to enforce temporal consistency. The entire network is trained on a synthetic
dataset that approximates the physical lighting properties of contaminant
artifacts. This new dataset and our novel framework lead to our method that is
able to address different contaminants and outperforms competitive restoration
approaches both qualitatively and quantitatively.
- Abstract(参考訳): カメラレンズに付着したほこり、汚れ、水分などの汚染物質は、結果の画像や映像の品質や明瞭さに大きな影響を与える。
本稿では,これらの汚染物質を自動的に除去し,クリーンな映像を作成するビデオ復元手法を提案する。
このアプローチはまず,復元が必要な領域を示すアテンションマップの検出を目標としている。
隣接するフレームから対応するクリーンピクセルを活用するために,汚染物質によって劣化した注目領域への背景シーンの流れを幻覚させるためのフロー補完モジュールを提案する。
注意マップと完了フローの導出により,隣接フレームからクリーンピクセルを取り込んで入力フレームを復元するリカレント手法を提案する。
最後に、時間的一貫性を強制するために、ビデオシーケンス全体をさらに処理するために、マルチフレーム処理ステージを使用する。
ネットワーク全体は、汚染物の物理的照明特性を近似する合成データセットに基づいて訓練される。
この新たなデータセットと新しいフレームワークは、異なる汚染物質に対処し、質的にも量的にも競争力のある復元アプローチを上回る性能を発揮する。
関連論文リスト
- Learning to Remove Wrinkled Transparent Film with Polarized Prior [33.56569839317172]
フィルム除去(FR)は、透明フィルムの干渉を除去し、産業認識のためのフィルムの下で元の情報を再構築しようとする試みである。
透明フィルムとペアデータを含む偏光情報を用いた実用的なデータセットを構築した。
エンド・ツー・エンドの枠組みでフィルムからの干渉(特殊ハイライトなど劣化)を除去することを目的としている。
論文 参考訳(メタデータ) (2024-03-07T09:56:56Z) - Removing Interference and Recovering Content Imaginatively for Visible
Watermark Removal [63.576748565274706]
本研究では,Removing Interference and Recovering Content Imaginatively (RIRCI)フレームワークについて紹介する。
RIRCIは2段階のアプローチを具現化しており、最初のフェーズは透かし成分の識別と分離に焦点を当て、次のフェーズは背景コンテンツの復元に焦点を当てている。
本モデルでは,半透明透かしの下の固有背景情報を完全に探索できるデュアルパスネットワークを用いる。
論文 参考訳(メタデータ) (2023-12-22T02:19:23Z) - Neural Image Re-Exposure [86.42475408644822]
不適切なシャッターは、ぼやけた画像、ビデオの不連続、あるいはローリングシャッターアーティファクトにつながる可能性がある。
ニューラルネットワークに基づく画像再露法フレームワークを提案する。
視覚的潜在空間構築のためのエンコーダ、所望のシャッター戦略でニューラルフィルムに情報を集約する再露光モジュール、およびニューラルフィルムを所望の画像に「展開」するためのデコーダから構成される。
論文 参考訳(メタデータ) (2023-05-23T01:55:37Z) - Exposure Fusion for Hand-held Camera Inputs with Optical Flow and
PatchMatch [53.149395644547226]
ハンドヘルドカメラによるマルチ露光画像融合のためのハイブリッド合成法を提案する。
提案手法は,このような動作に対処し,各入力の露光情報を効果的に維持する。
実験の結果,本手法の有効性とロバスト性を示した。
論文 参考訳(メタデータ) (2023-04-10T09:06:37Z) - Motion-inductive Self-supervised Object Discovery in Videos [99.35664705038728]
本稿では,連続的なRGBフレームの処理モデルを提案し,層状表現を用いて任意のフレーム間の光の流れを推定する。
3つの公開ビデオセグメンテーションデータセットにおいて,従来の最先端手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-10-01T08:38:28Z) - Restoration of Video Frames from a Single Blurred Image with Motion
Understanding [69.90724075337194]
単一モーション赤画像からクリーンな映像フレームを生成するための新しいフレームワークを提案する。
一つのぼやけた画像からの映像復元を逆問題として、クリーンな画像シーケンスとそれぞれの動きを潜伏要因として設定する。
提案手法は,空間トランスフォーマネットワークモジュールを用いたanblur-decoder構造に基づいている。
論文 参考訳(メタデータ) (2021-04-19T08:32:57Z) - Motion-blurred Video Interpolation and Extrapolation [72.3254384191509]
本稿では,映像から鮮明なフレームをエンドツーエンドに切り離し,補間し,外挿する新しい枠組みを提案する。
予測フレーム間の時間的コヒーレンスを確保し,潜在的な時間的あいまいさに対処するために,単純で効果的なフローベースルールを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:18:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。