論文の概要: DoF-Gaussian: Controllable Depth-of-Field for 3D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2503.00746v1
- Date: Sun, 02 Mar 2025 05:57:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:18:55.882394
- Title: DoF-Gaussian: Controllable Depth-of-Field for 3D Gaussian Splatting
- Title(参考訳): DoF-Gaussian:3次元ガウス平滑化のための制御可能な深さ制御
- Authors: Liao Shen, Tianqi Liu, Huiqiang Sun, Jiaqi Li, Zhiguo Cao, Wei Li, Chen Change Loy,
- Abstract要約: 3D-GSのための制御可能な深度法であるDoF-Gaussianを導入する。
我々は、DoF効果を制御するための幾何光学原理に基づくレンズベースイメージングモデルを開発した。
私たちのフレームワークはカスタマイズ可能で、様々なインタラクティブアプリケーションをサポートしています。
- 参考スコア(独自算出の注目度): 52.52398576505268
- License:
- Abstract: Recent advances in 3D Gaussian Splatting (3D-GS) have shown remarkable success in representing 3D scenes and generating high-quality, novel views in real-time. However, 3D-GS and its variants assume that input images are captured based on pinhole imaging and are fully in focus. This assumption limits their applicability, as real-world images often feature shallow depth-of-field (DoF). In this paper, we introduce DoF-Gaussian, a controllable depth-of-field method for 3D-GS. We develop a lens-based imaging model based on geometric optics principles to control DoF effects. To ensure accurate scene geometry, we incorporate depth priors adjusted per scene, and we apply defocus-to-focus adaptation to minimize the gap in the circle of confusion. We also introduce a synthetic dataset to assess refocusing capabilities and the model's ability to learn precise lens parameters. Our framework is customizable and supports various interactive applications. Extensive experiments confirm the effectiveness of our method. Our project is available at https://dof-gaussian.github.io.
- Abstract(参考訳): 近年の3Dガウススプラッティング(3D-GS)の進歩は、3Dシーンを表現し、高品質で斬新なビューをリアルタイムで生成することに成功した。
しかし、3D-GSとその変種は、入力画像はピンホールイメージングに基づいて撮影され、完全に焦点が当てられていると仮定している。
この仮定は適用性を制限するが、実世界の画像はしばしば浅い深度(DoF)を特徴とする。
本稿では3D-GSのための制御可能な深度法であるDoF-Gaussianを紹介する。
我々は、DoF効果を制御するための幾何光学原理に基づくレンズベースイメージングモデルを開発した。
正確なシーン形状を確保するため,シーン毎に調整された深さ先を組み込み,デフォーカス・ツー・フォーカス適応を適用し,混乱の円のギャップを最小限に抑える。
また、再焦点機能と正確なレンズパラメータを学習するモデルの能力を評価するための合成データセットも導入する。
私たちのフレームワークはカスタマイズ可能で、様々なインタラクティブアプリケーションをサポートしています。
大規模な実験により,本手法の有効性が確認された。
私たちのプロジェクトはhttps://dof-gaussian.github.ioで公開されています。
関連論文リスト
- CoCoGaussian: Leveraging Circle of Confusion for Gaussian Splatting from Defocused Images [20.10949653170145]
3D Gaussian Splatting (3DGS)は高品質のノベルビューレンダリングで注目されている。
本稿では,非焦点画像のみを用いて正確な3次元シーン表現を可能にする,コンフュージョン対応ガウス平滑化回路CoCoGaussianを提案する。
合成データセットと実世界のデータセットの両方の実験では、CoCoGaussianが複数のベンチマークで最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2024-12-20T16:25:20Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - Depth Estimation Based on 3D Gaussian Splatting Siamese Defocus [14.354405484663285]
本稿では,3次元幾何学における深さ推定のための3次元ガウススプラッティングとシームズネットワークに基づく自己教師型フレームワークを提案する。
提案したフレームワークは、人工的に合成されたデータセットと実際のぼやけたデータセットの両方で検証されている。
論文 参考訳(メタデータ) (2024-09-18T21:36:37Z) - DOF-GS: Adjustable Depth-of-Field 3D Gaussian Splatting for Refocusing,Defocus Rendering and Blur Removal [42.427021878005405]
3次元ガウススプラッティング技術は近年,高品質なリアルタイムレンダリングを実現するため,3次元シーン再構成と新しいビュー合成が進歩している。
これらのアプローチは、画像のモデリングにおいて基礎となるピンホールカメラの仮定によって本質的に制限されており、したがって、All-in-Focus (AiF) のシャープイメージ入力にのみ有効である。
これは、撮像素子の深度(DOF)が制限されているため、画像がしばしばデフォーカスのぼやけを示す現実世界のシナリオにおいて、それらの適用性に大きく影響する。
調整可能なDOFエフェクトのレンダリング、デフォーカスのぼかしの除去、および3Dシーンの再フォーカスを可能にするDOF-GSを導入する。
論文 参考訳(メタデータ) (2024-05-27T16:54:49Z) - InFusion: Inpainting 3D Gaussians via Learning Depth Completion from Diffusion Prior [36.23604779569843]
3Dガウスアンは、最近、新しいビュー合成の効率的な表現として現れた。
本研究は、その編集性について、特に塗装作業に焦点を当てて研究する。
2Dインペイントと比較すると、3Dガウスのクルックスは、導入された点のレンダリング関連性を理解することである。
論文 参考訳(メタデータ) (2024-04-17T17:59:53Z) - Spec-Gaussian: Anisotropic View-Dependent Appearance for 3D Gaussian Splatting [55.71424195454963]
Spec-Gaussian は球面調和の代わりに異方性球面ガウス場を利用するアプローチである。
実験結果から,本手法はレンダリング品質の面で既存の手法を超越していることが示された。
この改良は、3D GSの適用性を高めて、特異面と異方面の複雑なシナリオを扱う。
論文 参考訳(メタデータ) (2024-02-24T17:22:15Z) - FrozenRecon: Pose-free 3D Scene Reconstruction with Frozen Depth Models [67.96827539201071]
本稿では,3次元シーン再構成のための新しいテスト時間最適化手法を提案する。
本手法は5つのゼロショットテストデータセット上で,最先端のクロスデータセット再構築を実現する。
論文 参考訳(メタデータ) (2023-08-10T17:55:02Z) - 3D Neural Embedding Likelihood: Probabilistic Inverse Graphics for
Robust 6D Pose Estimation [50.15926681475939]
逆グラフィックスは2次元画像から3次元シーン構造を推論することを目的としている。
確率モデルを導入し,不確実性を定量化し,6次元ポーズ推定タスクにおけるロバスト性を実現する。
3DNELは、RGBから学んだニューラルネットワークの埋め込みと深度情報を組み合わせることで、RGB-D画像からのsim-to-real 6Dオブジェクトのポーズ推定の堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-02-07T20:48:35Z) - Learning to Recover 3D Scene Shape from a Single Image [98.20106822614392]
まず,未知のスケールまで深さを予測し,単一の単眼画像からシフトする2段階フレームワークを提案する。
そして、3dポイントクラウドエンコーダを使って深度シフトと焦点距離を予測し、リアルな3dシーンの形状を復元します。
論文 参考訳(メタデータ) (2020-12-17T02:35:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。