論文の概要: Physics-Informed Video Flare Synthesis and Removal Leveraging Motion Independence between Flare and Scene
- arxiv url: http://arxiv.org/abs/2512.11327v1
- Date: Fri, 12 Dec 2025 07:01:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 15:48:11.685202
- Title: Physics-Informed Video Flare Synthesis and Removal Leveraging Motion Independence between Flare and Scene
- Title(参考訳): 物理インフォームドビデオフレア合成とフレアとシーン間の移動独立性除去
- Authors: Junqiao Wang, Yuanfei Huang, Hua Huang,
- Abstract要約: 映像のフレア除去は、光源の複雑で相互に独立な動きのフレアとシーンの内容により、画像合成よりもかなり大きな課題をもたらす。
物理インフォームド・ダイナミックフレア・パイプラインを提案し,光フローを用いて光運動源をシミュレートし,散乱とフレアの両方の時間的挙動をモデル化した。
提案手法は, 実写ビデオと合成ビデオの両方において, 既存の映像再生法と画像ベースフレア除去法を一貫して上回っている。
- 参考スコア(独自算出の注目度): 17.04814273488001
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Lens flare is a degradation phenomenon caused by strong light sources. Existing researches on flare removal have mainly focused on images, while the spatiotemporal characteristics of video flare remain largely unexplored. Video flare synthesis and removal pose significantly greater challenges than in image, owing to the complex and mutually independent motion of flare, light sources, and scene content. This motion independence further affects restoration performance, often resulting in flicker and artifacts. To address this issue, we propose a physics-informed dynamic flare synthesis pipeline, which simulates light source motion using optical flow and models the temporal behaviors of both scattering and reflective flares. Meanwhile, we design a video flare removal network that employs an attention module to spatially suppress flare regions and incorporates a Mamba-based temporal modeling component to capture long range spatio-temporal dependencies. This motion-independent spatiotemporal representation effectively eliminates the need for multi-frame alignment, alleviating temporal aliasing between flares and scene content and thereby improving video flare removal performance. Building upon this, we construct the first video flare dataset to comprehensively evaluate our method, which includes a large set of synthetic paired videos and additional real-world videos collected from the Internet to assess generalization capability. Extensive experiments demonstrate that our method consistently outperforms existing video-based restoration and image-based flare removal methods on both real and synthetic videos, effectively removing dynamic flares while preserving light source integrity and maintaining spatiotemporal consistency of scene.
- Abstract(参考訳): レンズフレア(英: Lens flare)は、強い光源によって引き起こされる劣化現象である。
フレア除去に関する既存の研究は、主に画像に焦点を当てているが、ビデオフレアの時空間特性はほとんど探索されていない。
ビデオフレア合成と除去は、フレア、光源、シーン内容の複雑かつ相互に独立な動きのために、画像よりもかなり大きな課題をもたらす。
この動きの独立は、修復性能にさらに影響を与え、しばしばフリッカやアーティファクトをもたらす。
この問題に対処するために、光学フローを用いた光源運動をシミュレートし、散乱と反射フレアの両方の時間的挙動をモデル化する物理インフォームド動的フレア合成パイプラインを提案する。
一方,空間的にフレア領域を抑圧するアテンションモジュールを用いたビデオフレア除去ネットワークを設計し,マンバをベースとしたテンポラルモデリングコンポーネントを組み込んで,長距離時空間依存性をキャプチャする。
この動き非依存時空間表現は、多フレームアライメントの必要性を効果的に排除し、フレアとシーン内容の時間エイリアスを緩和し、ビデオフレア除去性能を向上させる。
そこで我々は,この手法を総合的に評価するための最初のビデオフレアデータセットを構築した。
広汎な実験により,本手法は実ビデオと合成ビデオの両方において,既存の映像の復元や画像ベースのフレア除去方法より一貫して優れており,光源の整合性を維持しながら動的フレアを効果的に除去し,シーンの時空間整合性を維持する。
関連論文リスト
- BurstDeflicker: A Benchmark Dataset for Flicker Removal in Dynamic Scenes [36.35784556196341]
本稿では,3つの補完的なデータ取得戦略を用いて構築したスケーラブルなベンチマークであるBurstDeflickerを紹介する。
まず,フリック除去の目標を再定義するRetinexベースの合成パイプラインを開発する。
第2に、異なるシーンから4000個の現実世界のフリック画像をキャプチャし、実際のフリックアーティファクトの空間的および時間的特性をよりよく理解するのに役立つ。
論文 参考訳(メタデータ) (2025-10-11T03:46:34Z) - DeflareMamba: Hierarchical Vision Mamba for Contextually Consistent Lens Flare Removal [14.87987455441087]
レンズフレア除去のためのシーケンスモデルであるDeflareMambaを提案する。
提案手法は, 散乱や反射フレアなど, 様々な種類のフレアアーティファクトを効果的に除去するものである。
さらに下流のアプリケーションでは、視覚的オブジェクト認識とモーダル間セマンティック理解を改善するための手法の能力を示す。
論文 参考訳(メタデータ) (2025-08-04T06:49:48Z) - Video Forgery Detection with Optical Flow Residuals and Spatial-Temporal Consistency [1.7061868168035932]
本稿では,RGBの外観特徴と光流動残差を組み合わせ,空間的時間的整合性を利用する検出フレームワークを提案する。
これらの相補的特徴を統合することにより,提案手法は広範囲の偽動画を効果的に検出する。
論文 参考訳(メタデータ) (2025-08-01T07:51:35Z) - UniRelight: Learning Joint Decomposition and Synthesis for Video Relighting [85.27994475113056]
我々はアルベドを共同で推定し、単一のパスで信頼出力を合成する汎用的アプローチを導入する。
本モデルは,多様な領域にまたがる強力な一般化を示し,視覚的忠実度と時間的整合性の両方において,従来の手法を超越している。
論文 参考訳(メタデータ) (2025-06-18T17:56:45Z) - RelightVid: Temporal-Consistent Diffusion Model for Video Relighting [95.10341081549129]
RelightVidはビデオのリライトのためのフレキシブルなフレームワークだ。
バックグラウンドビデオ、テキストプロンプト、環境マップをリライト条件として受け入れることができる。
内在的な分解を伴わずに、時間的整合性の高い任意のビデオリライティングを実現する。
論文 参考訳(メタデータ) (2025-01-27T18:59:57Z) - Flying with Photons: Rendering Novel Views of Propagating Light [37.06220870989172]
本稿では,新しい移動カメラの視点から,シーンを通して伝播する光の映像を合成する画像・ニューラルレンダリング技術を提案する。
我々のアプローチは、ピコ秒レベルの時間分解能を持つファースト・オブ・イットタイプの多視点ビデオデータセットをキャプチャするための、新しい超高速撮像装置に依存している。
論文 参考訳(メタデータ) (2024-04-09T17:48:52Z) - MoVideo: Motion-Aware Video Generation with Diffusion Models [97.03352319694795]
本稿では,映像深度と光フローの2つの側面から動きを考慮に入れたモーションアウェア・ジェネレーション(MoVideo)フレームワークを提案する。
MoVideoは、テキスト・トゥ・ビデオと画像・トゥ・ビデオ生成の両方で最先端の結果を達成し、期待できる即時一貫性、フレームの整合性、視覚的品質を示す。
論文 参考訳(メタデータ) (2023-11-19T13:36:03Z) - LEO: Generative Latent Image Animator for Human Video Synthesis [38.99490968487773]
本稿では,人間の映像合成のための新しい枠組みを提案し,合成時間的コヒーレンシーを重視した。
私たちのキーとなるアイデアは、動きを外見から本質的に分離する生成過程におけるフローマップのシーケンスとして表現することです。
フローベース画像アニメーターとラテントモーション拡散モデル(LMDM)を用いてこれを実装した。
論文 参考訳(メタデータ) (2023-05-06T09:29:12Z) - Video Salient Object Detection via Contrastive Features and Attention
Modules [106.33219760012048]
本稿では,注目モジュールを持つネットワークを用いて,映像の有意な物体検出のためのコントラスト特徴を学習する。
コアテンションの定式化は、低レベル特徴と高レベル特徴を組み合わせるために用いられる。
提案手法は計算量が少なく,最先端の手法に対して良好に動作することを示す。
論文 参考訳(メタデータ) (2021-11-03T17:40:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。