論文の概要: FlareX: A Physics-Informed Dataset for Lens Flare Removal via 2D Synthesis and 3D Rendering
- arxiv url: http://arxiv.org/abs/2510.09995v1
- Date: Sat, 11 Oct 2025 03:45:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.72645
- Title: FlareX: A Physics-Informed Dataset for Lens Flare Removal via 2D Synthesis and 3D Rendering
- Title(参考訳): FlareX: 2D合成と3Dレンダリングによるレンズフレア除去のための物理インフォームドデータセット
- Authors: Lishen Qu, Zhihao Liu, Jinshan Pan, Shihao Zhou, Jinglei Shi, Duosheng Chen, Jufeng Yang,
- Abstract要約: 本稿では, パラメータ化テンプレート生成, 照明対応2D合成法, 物理エンジンによる3Dレンダリングの3段階からなるフレアデータ生成法を提案する。
このデータセットは、95のフレアパターンから派生した9,500の2Dテンプレートと60の3Dシーンからレンダリングされた3000のフレアイメージペアを提供する。
- 参考スコア(独自算出の注目度): 66.73919651934519
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Lens flare occurs when shooting towards strong light sources, significantly degrading the visual quality of images. Due to the difficulty in capturing flare-corrupted and flare-free image pairs in the real world, existing datasets are typically synthesized in 2D by overlaying artificial flare templates onto background images. However, the lack of flare diversity in templates and the neglect of physical principles in the synthesis process hinder models trained on these datasets from generalizing well to real-world scenarios. To address these challenges, we propose a new physics-informed method for flare data generation, which consists of three stages: parameterized template creation, the laws of illumination-aware 2D synthesis, and physical engine-based 3D rendering, which finally gives us a mixed flare dataset that incorporates both 2D and 3D perspectives, namely FlareX. This dataset offers 9,500 2D templates derived from 95 flare patterns and 3,000 flare image pairs rendered from 60 3D scenes. Furthermore, we design a masking approach to obtain real-world flare-free images from their corrupted counterparts to measure the performance of the model on real-world images. Extensive experiments demonstrate the effectiveness of our method and dataset.
- Abstract(参考訳): レンズフレアは、強い光源に向かって撮影する際に起こり、画像の視覚的品質を著しく低下させる。
実世界のフレア崩壊とフレアのない画像ペアを捉えるのが難しいため、既存のデータセットは通常、背景画像に人工フレアテンプレートをオーバーレイすることで2Dで合成される。
しかし、テンプレートにおけるフレアの多様性の欠如と合成プロセスにおける物理原理の欠如は、これらのデータセットで訓練されたモデルを、うまく一般化して現実のシナリオへと導くことを妨げている。
これらの課題に対処するために、パラメータ化テンプレート生成、照明対応2D合成法、物理エンジンベースの3Dレンダリングの3段階からなるフレアデータ生成のための物理インフォームド手法を提案する。
このデータセットは、95のフレアパターンから派生した9,500の2Dテンプレートと60の3Dシーンからレンダリングされた3000のフレアイメージペアを提供する。
さらに, 実際の画像上でのモデルの性能を測定するために, 劣化した画像から現実のフレアフリー画像を得るためのマスキング手法を設計する。
大規模な実験により,本手法とデータセットの有効性が実証された。
関連論文リスト
- 3D Object Manipulation in a Single Image using Generative Models [30.241857090353864]
拡散モデルの生成力と正確な幾何学的制御を統合する新しいフレームワークである textbfOMG3D を紹介する。
筆者らのフレームワークはまず2Dオブジェクトを3Dに変換し,幾何学レベルでのユーザ指向の修正やライフライクな動作を可能にする。
注目すべきなのは、これらのステップはすべて、NVIDIA 3090を使って行うことができることだ。
論文 参考訳(メタデータ) (2025-01-22T15:06:30Z) - ViewDiff: 3D-Consistent Image Generation with Text-to-Image Models [65.22994156658918]
実世界のデータから1つの認知過程において多視点画像を生成することを学習する手法を提案する。
我々は、任意の視点でより多くの3D一貫性のある画像をレンダリングする自己回帰生成を設計する。
論文 参考訳(メタデータ) (2024-03-04T07:57:05Z) - ARTIC3D: Learning Robust Articulated 3D Shapes from Noisy Web Image
Collections [71.46546520120162]
単眼画像から動物体のような3D関節形状を推定することは、本質的に困難である。
本稿では,スパース画像コレクションから各物体の形状を再構築する自己教師型フレームワークARTIC3Dを提案する。
我々は、剛性部分変換の下で、描画された形状とテクスチャを微調整することで、現実的なアニメーションを作成する。
論文 参考訳(メタデータ) (2023-06-07T17:47:50Z) - DiffRF: Rendering-Guided 3D Radiance Field Diffusion [18.20324411024166]
本稿では,拡散確率モデルに基づく3次元放射場合成の新しい手法であるDiffRFを紹介する。
2次元拡散モデルとは対照的に、我々のモデルは多視点一貫した先行情報を学習し、自由視点合成と正確な形状生成を可能にする。
論文 参考訳(メタデータ) (2022-12-02T14:37:20Z) - DreamFusion: Text-to-3D using 2D Diffusion [52.52529213936283]
テキストと画像の合成の最近の進歩は、何十億もの画像と画像のペアで訓練された拡散モデルによって引き起こされている。
本研究では,事前訓練された2次元テキスト・ツー・イメージ拡散モデルを用いてテキスト・ツー・3次元合成を行うことにより,これらの制約を回避する。
提案手法では,3次元トレーニングデータや画像拡散モデルの変更は必要とせず,事前訓練した画像拡散モデルの有効性を実証する。
論文 参考訳(メタデータ) (2022-09-29T17:50:40Z) - A Shading-Guided Generative Implicit Model for Shape-Accurate 3D-Aware
Image Synthesis [163.96778522283967]
そこで本研究では,シェーディング誘導型生成暗黙モデルを提案する。
正確な3D形状は、異なる照明条件下でリアルなレンダリングをもたらす必要がある。
複数のデータセットに対する実験により,提案手法が光リアルな3次元画像合成を実現することを示す。
論文 参考訳(メタデータ) (2021-10-29T10:53:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。