論文の概要: Video Demoireing using Focused-Defocused Dual-Camera System
- arxiv url: http://arxiv.org/abs/2508.03449v1
- Date: Tue, 05 Aug 2025 13:49:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:55.990051
- Title: Video Demoireing using Focused-Defocused Dual-Camera System
- Title(参考訳): 焦点集中型デュアルカメラシステムによる映像復調
- Authors: Xuan Dong, Xiangyuan Sun, Xia Wang, Jian Song, Ya Li, Weixin Li,
- Abstract要約: 既存の復号法は、単一カメラの画像/ビデオ処理に依存している。
同じシーンの同期映像をキャプチャするデュアルカメラフレームワークを提案する。
焦点を絞ったビデオは、モアレのパターンと実際のテクスチャを区別するのに役立ち、焦点を絞ったビデオの陳腐化を導くのに役立ちます。
- 参考スコア(独自算出の注目度): 21.59133575445115
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Moire patterns, unwanted color artifacts in images and videos, arise from the interference between spatially high-frequency scene contents and the spatial discrete sampling of digital cameras. Existing demoireing methods primarily rely on single-camera image/video processing, which faces two critical challenges: 1) distinguishing moire patterns from visually similar real textures, and 2) preserving tonal consistency and temporal coherence while removing moire artifacts. To address these issues, we propose a dual-camera framework that captures synchronized videos of the same scene: one in focus (retaining high-quality textures but may exhibit moire patterns) and one defocused (with significantly reduced moire patterns but blurred textures). We use the defocused video to help distinguish moire patterns from real texture, so as to guide the demoireing of the focused video. We propose a frame-wise demoireing pipeline, which begins with an optical flow based alignment step to address any discrepancies in displacement and occlusion between the focused and defocused frames. Then, we leverage the aligned defocused frame to guide the demoireing of the focused frame using a multi-scale CNN and a multi-dimensional training loss. To maintain tonal and temporal consistency, our final step involves a joint bilateral filter to leverage the demoireing result from the CNN as the guide to filter the input focused frame to obtain the final output. Experimental results demonstrate that our proposed framework largely outperforms state-of-the-art image and video demoireing methods.
- Abstract(参考訳): モアレパターン(モアレパターン)は、空間的に高周波シーンの内容とデジタルカメラの空間的離散サンプリングとの干渉から生じる。
既存のデファイアリング方式は、主に単一カメラの画像/ビデオ処理に依存しており、これは2つの重要な課題に直面している。
1)モアレパターンと視覚的に類似した実際のテクスチャの区別
2) モアレアーティファクトを除去しつつ,音節の整合性及び時間的整合性を維持すること。
これらの問題に対処するため、同じシーンの同期ビデオ(高品質なテクスチャを保持できるが、モアレパターンを提示できる)とデフォーカス(モアレパターンを著しく低減するが、ぼやけたテクスチャを表示できる)をキャプチャするデュアルカメラフレームワークを提案する。
焦点を絞ったビデオは、モアレのパターンと実際のテクスチャを区別するのに役立ち、焦点を絞ったビデオの陳腐化を導くのに役立ちます。
本稿では,光フローに基づくアライメントステップから始まるフレームワイド復調パイプラインを提案する。
そこで我々は,多次元CNNと多次元学習損失を用いた集中型フレームの復調を誘導するために,アライメントされた非集中型フレームを利用する。
音節と時間的整合性を維持するため、最終ステップでは、CNNの復調結果を利用して、入力集中フレームをフィルタして最終的な出力を得る。
実験の結果,提案手法は最先端の画像や映像の復号化手法よりも優れていた。
関連論文リスト
- StabStitch++: Unsupervised Online Video Stitching with Spatiotemporal Bidirectional Warps [81.8786100662034]
我々は,画像縫合からビデオ縫合までを延ばす際に,連続的に非平滑なワープによって引き起こされる時間的内容の揺らぎを顕現するワープシェイクという新たな問題にビデオ縫合を再ターゲットとした。
この問題を解決するために,教師なし学習を同時に行う空間的縫合と時間的安定化を実現する新しいビデオ縫合フレームワークであるStabStitch++を提案する。
論文 参考訳(メタデータ) (2025-05-08T07:12:23Z) - Bokeh Diffusion: Defocus Blur Control in Text-to-Image Diffusion Models [26.79219274697864]
Bokeh Diffusionはシーン一貫性のあるbokehコントロールフレームワークである。
本稿では,合成ぼかし増量による画像の調整を行うハイブリッド・トレーニング・パイプラインを提案する。
われわれのアプローチは、フレキシブルでレンズライクなぼかし制御を可能にし、インバージョンによる実際の画像編集のような下流アプリケーションをサポートする。
論文 参考訳(メタデータ) (2025-03-11T13:49:12Z) - InVi: Object Insertion In Videos Using Off-the-Shelf Diffusion Models [46.587906540660455]
InViは、ビデオ内のオブジェクトを挿入または置換するためのアプローチで、オフザシェルフ、テキスト・ツー・イメージの潜伏拡散モデルを用いて導入する。
InViは、フレーム間の一貫したブレンディングとコヒーレンスで現実的なオブジェクト挿入を実現し、既存のメソッドよりも優れています。
論文 参考訳(メタデータ) (2024-07-15T17:55:09Z) - DaBiT: Depth and Blur informed Transformer for Video Focal Deblurring [4.332534893042983]
多くの現実のシナリオでは、録画されたビデオは偶然の焦点がぼやけている。
本稿では、ビデオ焦点ずれの未解決作業に最適化されたフレームワークを提案する(再焦点)。
我々は、既存のビデオ復元方法よりも1.9dB以上のPSNR性能で、最先端の結果を得る。
論文 参考訳(メタデータ) (2024-07-01T12:22:16Z) - Rerender A Video: Zero-Shot Text-Guided Video-to-Video Translation [93.18163456287164]
本稿では,動画に画像モデルを適用するための新しいテキスト誘導型動画翻訳フレームワークを提案する。
我々のフレームワークは,グローバルなスタイルと局所的なテクスチャの時間的一貫性を低コストで実現している。
論文 参考訳(メタデータ) (2023-06-13T17:52:23Z) - Feature-Aligned Video Raindrop Removal with Temporal Constraints [68.49161092870224]
雨滴除去は、単一画像とビデオの両方において困難である。
熱帯雨林とは異なり、雨滴は複数のフレームで同じ地域を覆う傾向にある。
本手法では,2段階の降雨量除去手法を用いる。
論文 参考訳(メタデータ) (2022-05-29T05:42:14Z) - Video Demoireing with Relation-Based Temporal Consistency [68.20281109859998]
カラー歪みのように見えるモアレパターンは、デジタルカメラでスクリーンを撮影する際に、画像と映像の画質を著しく劣化させる。
我々は、このような望ましくないモアレパターンをビデオで除去する方法を研究している。
論文 参考訳(メタデータ) (2022-04-06T17:45:38Z) - Motion-blurred Video Interpolation and Extrapolation [72.3254384191509]
本稿では,映像から鮮明なフレームをエンドツーエンドに切り離し,補間し,外挿する新しい枠組みを提案する。
予測フレーム間の時間的コヒーレンスを確保し,潜在的な時間的あいまいさに対処するために,単純で効果的なフローベースルールを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:18:25Z) - FineNet: Frame Interpolation and Enhancement for Face Video Deblurring [18.49184807837449]
この作品の目的は、顔のビデオを破壊することです。
本稿では,(1)ぼやけたフレームの強化,(2)ぼやけたフレームを欠落した値として扱い,目的によって見積もる方法を提案する。
3つの実および合成ビデオデータセットを用いた実験により,本手法が従来の最先端手法よりも定量的および質的結果において大きな差を示した。
論文 参考訳(メタデータ) (2021-03-01T09:47:16Z) - Self-Adaptively Learning to Demoire from Focused and Defocused Image
Pairs [97.67638106818613]
モアレアーティファクトはデジタル写真では一般的であり、高周波シーンコンテンツとカメラのカラーフィルタアレイとの干渉によるものである。
大規模反復で訓練された既存のディープラーニングに基づく復習手法は、様々な複雑なモアレパターンを扱う場合に限られる。
本稿では,高頻度画像の復調のための自己適応学習手法を提案する。
論文 参考訳(メタデータ) (2020-11-03T23:09:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。