論文の概要: Parameter-Free Neural Lens Blur Rendering for High-Fidelity Composites
- arxiv url: http://arxiv.org/abs/2511.17014v1
- Date: Fri, 21 Nov 2025 07:32:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-24 18:08:18.925435
- Title: Parameter-Free Neural Lens Blur Rendering for High-Fidelity Composites
- Title(参考訳): 高忠実度複合材料のためのパラメータフリーニューラルレンズブラーレンダリング
- Authors: Lingyan Ruan, Bin Chen, Taehyun Rhee,
- Abstract要約: 一貫性のある自然なカメラレンズのぼかしは、3D仮想オブジェクトを写真にシームレスにブレンドするのに重要である。
既存のパイプラインは、しばしば写実的なレンズぼかしレンダリングのために混乱の円(CoC)を計算するためにカメラパラメータに依存する。
本稿では,RGB画像から直接CoCマップを推定する手法を提案する。
- 参考スコア(独自算出の注目度): 9.308179344001795
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Consistent and natural camera lens blur is important for seamlessly blending 3D virtual objects into photographed real-scenes. Since lens blur typically varies with scene depth, the placement of virtual objects and their corresponding blur levels significantly affect the visual fidelity of mixed reality compositions. Existing pipelines often rely on camera parameters (e.g., focal length, focus distance, aperture size) and scene depth to compute the circle of confusion (CoC) for realistic lens blur rendering. However, such information is often unavailable to ordinary users, limiting the accessibility and generalizability of these methods. In this work, we propose a novel compositing approach that directly estimates the CoC map from RGB images, bypassing the need for scene depth or camera metadata. The CoC values for virtual objects are inferred through a linear relationship between its signed CoC map and depth, and realistic lens blur is rendered using a neural reblurring network. Our method provides flexible and practical solution for real-world applications. Experimental results demonstrate that our method achieves high-fidelity compositing with realistic defocus effects, outperforming state-of-the-art techniques in both qualitative and quantitative evaluations.
- Abstract(参考訳): 一貫性のある自然なカメラレンズのぼかしは、3D仮想オブジェクトを写真にシームレスにブレンドするのに重要である。
レンズのぼかしは通常シーンの深さによって異なるため、仮想物体の配置とそれに対応するぼかしレベルは混合現実感の視覚的忠実度に大きく影響する。
既存のパイプラインは、しばしばカメラパラメータ(例えば焦点距離、焦点距離、開口サイズ)とシーン深さに依存する。
しかし、そのような情報は一般のユーザーには利用できないことが多く、これらの手法のアクセシビリティと一般化性が制限されている。
本研究では,RGB画像から直接CoCマップを推定する新しい合成手法を提案する。
仮想オブジェクトのCoC値は、符号付きCoCマップと深さの線形関係によって推定され、ニューラルネットワークを用いて現実的なレンズのぼかしを描画する。
本手法は現実のアプリケーションに対して柔軟で実用的なソリューションを提供する。
実験結果から,本手法は実測および定量的評価において,実測的なデフォーカス効果と高忠実度合成を実現し,最先端技術より優れることが示された。
関連論文リスト
- DoF-Gaussian: Controllable Depth-of-Field for 3D Gaussian Splatting [52.52398576505268]
3D-GSのための制御可能な深度法であるDoF-Gaussianを導入する。
我々は、DoF効果を制御するための幾何光学原理に基づくレンズベースイメージングモデルを開発した。
私たちのフレームワークはカスタマイズ可能で、様々なインタラクティブアプリケーションをサポートしています。
論文 参考訳(メタデータ) (2025-03-02T05:57:57Z) - CoCoGaussian: Leveraging Circle of Confusion for Gaussian Splatting from Defocused Images [20.10949653170145]
3D Gaussian Splatting (3DGS)は高品質のノベルビューレンダリングで注目されている。
本稿では,非焦点画像のみを用いて正確な3次元シーン表現を可能にする,コンフュージョン対応ガウス平滑化回路CoCoGaussianを提案する。
合成データセットと実世界のデータセットの両方の実験では、CoCoGaussianが複数のベンチマークで最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2024-12-20T16:25:20Z) - GS-Blur: A 3D Scene-Based Dataset for Realistic Image Deblurring [50.72230109855628]
本稿では,新しい手法を用いて合成されたリアルなぼやけた画像のデータセットであるGS-Blurを提案する。
まず,3Dガウス・スプレイティング(3DGS)を用いて多視点画像から3Dシーンを再構成し,ランダムに生成された運動軌跡に沿ってカメラビューを移動させてぼやけた画像を描画する。
GS-Blurの再構築に様々なカメラトラジェクトリを採用することで、我々のデータセットは現実的で多様な種類のぼかしを含み、現実世界のぼかしをうまく一般化する大規模なデータセットを提供する。
論文 参考訳(メタデータ) (2024-10-31T06:17:16Z) - Photorealistic Object Insertion with Diffusion-Guided Inverse Rendering [56.68286440268329]
現実世界のシーンの画像に仮想オブジェクトを正しく挿入するには、シーンの照明、幾何学、材料を深く理解する必要がある。
本稿では,物理ベースの逆レンダリングプロセスへのガイダンスとして,パーソナライズされた大規模拡散モデルを提案する。
本手法は,シーンライティングとトーンマッピングのパラメータを復元し,任意の仮想オブジェクトの光リアルな構成を室内や屋外のシーンの単一フレームやビデオで再現する。
論文 参考訳(メタデータ) (2024-08-19T05:15:45Z) - Relighting Scenes with Object Insertions in Neural Radiance Fields [24.18050535794117]
本研究では,物体のNeRFをシーンのNeRFに挿入するための新しいNeRFパイプラインを提案する。
提案手法は,広範囲な実験評価において,現実的な照明効果を実現する。
論文 参考訳(メタデータ) (2024-06-21T00:58:58Z) - Neural Fields meet Explicit Geometric Representation for Inverse
Rendering of Urban Scenes [62.769186261245416]
本稿では,大都市におけるシーン形状,空間変化材料,HDR照明を,任意の深さで描画したRGB画像の集合から共同で再構成できる新しい逆レンダリングフレームワークを提案する。
具体的には、第1の光線を考慮に入れ、第2の光線をモデリングするために、明示的なメッシュ(基礎となるニューラルネットワークから再構成)を用いて、キャストシャドウのような高次照明効果を発生させる。
論文 参考訳(メタデータ) (2023-04-06T17:51:54Z) - Depth-Aware Image Compositing Model for Parallax Camera Motion Blur [4.170640862518009]
カメラの動きは、3D世界の奥行きの変化によって空間的に異なるぼやけをもたらす。
深度依存性の異なるぼかしに対して, 単純かつ高精度な画像呈示ブラ (ICB) モデルを提案する。
論文 参考訳(メタデータ) (2023-03-16T14:15:32Z) - Neural Reflectance Fields for Appearance Acquisition [61.542001266380375]
シーン内の任意の3次元点における体積密度, 正規および反射特性をエンコードする新しい深部シーン表現であるニューラルリフレクタンス場を提案する。
我々はこの表現を、任意の視点と光の下でニューラルリフレクタンスフィールドから画像を描画できる物理的にベースとした微分可能光線マーチングフレームワークと組み合わせる。
論文 参考訳(メタデータ) (2020-08-09T22:04:36Z) - Rendering Natural Camera Bokeh Effect with Deep Learning [95.86933125733673]
ボケ(Bokeh)は、写真に焦点をあてる重要な芸術効果である。
モバイルカメラは、光学の直径が非常に小さいため、被写界深度が浅い写真を作ることができない。
本稿では,デジタル一眼レフカメラで撮影された写真から直接,現実的な浅層焦点技術を学ぶことを提案する。
論文 参考訳(メタデータ) (2020-06-10T07:28:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。