論文の概要: CoCoGaussian: Leveraging Circle of Confusion for Gaussian Splatting from Defocused Images
- arxiv url: http://arxiv.org/abs/2412.16028v1
- Date: Fri, 20 Dec 2024 16:25:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-23 18:46:09.019409
- Title: CoCoGaussian: Leveraging Circle of Confusion for Gaussian Splatting from Defocused Images
- Title(参考訳): CoCoGaussian: 焦点を絞った画像からのガウススプラッティングのためのコンフュージョンのレバレッジ
- Authors: Jungho Lee, Suhwan Cho, Taeoh Kim, Ho-Deok Jang, Minhyeok Lee, Geonho Cha, Dongyoon Wee, Dogyoon Lee, Sangyoun Lee,
- Abstract要約: 3D Gaussian Splatting (3DGS)は高品質のノベルビューレンダリングで注目されている。
本稿では,非焦点画像のみを用いて正確な3次元シーン表現を可能にする,コンフュージョン対応ガウス平滑化回路CoCoGaussianを提案する。
合成データセットと実世界のデータセットの両方の実験では、CoCoGaussianが複数のベンチマークで最先端のパフォーマンスを達成した。
- 参考スコア(独自算出の注目度): 20.10949653170145
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D Gaussian Splatting (3DGS) has attracted significant attention for its high-quality novel view rendering, inspiring research to address real-world challenges. While conventional methods depend on sharp images for accurate scene reconstruction, real-world scenarios are often affected by defocus blur due to finite depth of field, making it essential to account for realistic 3D scene representation. In this study, we propose CoCoGaussian, a Circle of Confusion-aware Gaussian Splatting that enables precise 3D scene representation using only defocused images. CoCoGaussian addresses the challenge of defocus blur by modeling the Circle of Confusion (CoC) through a physically grounded approach based on the principles of photographic defocus. Exploiting 3D Gaussians, we compute the CoC diameter from depth and learnable aperture information, generating multiple Gaussians to precisely capture the CoC shape. Furthermore, we introduce a learnable scaling factor to enhance robustness and provide more flexibility in handling unreliable depth in scenes with reflective or refractive surfaces. Experiments on both synthetic and real-world datasets demonstrate that CoCoGaussian achieves state-of-the-art performance across multiple benchmarks.
- Abstract(参考訳): 3D Gaussian Splatting (3DGS)は高品質のノベルビューレンダリングで注目されており、現実世界の課題に対処するための研究を刺激している。
従来の手法は、正確なシーン再構成のためのシャープな画像に依存するが、実世界のシナリオは、フィールドの深さが有限であるために、デフォーカスのぼやけの影響を受けやすいため、現実的な3Dシーン表現を考慮に入れることが不可欠である。
本研究では,非焦点画像のみを用いて正確な3次元シーン表現を可能にする,コンフュージョン対応ガウス平滑化回路CoCoGaussianを提案する。
CoCoGaussianは、写真デフォーカスの原理に基づく物理的に根拠付けられたアプローチを通じて、CoC(Circle of Confusion)をモデル化することでデフォーカスのぼかしの課題に対処する。
3次元ガウス波を爆発させて、深度と学習可能な開口情報からCoCの直径を計算し、複数のガウス波を生成してCoCの形状を正確に捉える。
さらに, 反射面や屈折面の非信頼な深度処理において, 強靭性を高め, 柔軟性を高めるための学習可能なスケーリング係数を導入する。
合成データセットと実世界のデータセットの両方の実験では、CoCoGaussianが複数のベンチマークで最先端のパフォーマンスを達成した。
関連論文リスト
- DoF-Gaussian: Controllable Depth-of-Field for 3D Gaussian Splatting [52.52398576505268]
3D-GSのための制御可能な深度法であるDoF-Gaussianを導入する。
我々は、DoF効果を制御するための幾何光学原理に基づくレンズベースイメージングモデルを開発した。
私たちのフレームワークはカスタマイズ可能で、様々なインタラクティブアプリケーションをサポートしています。
論文 参考訳(メタデータ) (2025-03-02T05:57:57Z) - DehazeGS: Seeing Through Fog with 3D Gaussian Splatting [17.119969983512533]
DehazeGSは,霧のない背景をメディアから分解・レンダリングできる手法である。
合成と実世界の霧のデータセットの実験は、DehazeGSが最先端のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2025-01-07T09:47:46Z) - MonoGSDF: Exploring Monocular Geometric Cues for Gaussian Splatting-Guided Implicit Surface Reconstruction [84.07233691641193]
高品質な再構成のための神経信号距離場(SDF)とプリミティブを結合する新しい手法であるMonoGSDFを紹介する。
任意のスケールのシーンを扱うために,ロバストな一般化のためのスケーリング戦略を提案する。
実世界のデータセットの実験は、効率を保ちながら、以前の方法よりも優れています。
論文 参考訳(メタデータ) (2024-11-25T20:07:07Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - Depth Estimation Based on 3D Gaussian Splatting Siamese Defocus [14.354405484663285]
本稿では,3次元幾何学における深さ推定のための3次元ガウススプラッティングとシームズネットワークに基づく自己教師型フレームワークを提案する。
提案したフレームワークは、人工的に合成されたデータセットと実際のぼやけたデータセットの両方で検証されている。
論文 参考訳(メタデータ) (2024-09-18T21:36:37Z) - GaussianFormer: Scene as Gaussians for Vision-Based 3D Semantic Occupancy Prediction [70.65250036489128]
3Dのセマンティック占有予測は,周囲のシーンの3Dの微細な形状とセマンティックスを得ることを目的としている。
本稿では,3Dシーンを3Dセマンティック・ガウシアンで表現するオブジェクト中心表現を提案する。
GaussianFormerは17.8%から24.8%のメモリ消費しか持たない最先端のメソッドで同等のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-05-27T17:59:51Z) - InFusion: Inpainting 3D Gaussians via Learning Depth Completion from Diffusion Prior [36.23604779569843]
3Dガウスアンは、最近、新しいビュー合成の効率的な表現として現れた。
本研究は、その編集性について、特に塗装作業に焦点を当てて研究する。
2Dインペイントと比較すると、3Dガウスのクルックスは、導入された点のレンダリング関連性を理解することである。
論文 参考訳(メタデータ) (2024-04-17T17:59:53Z) - Gaussian Opacity Fields: Efficient Adaptive Surface Reconstruction in Unbounded Scenes [50.92217884840301]
Gaussian Opacity Fields (GOF)は、シーンにおける効率的で高品質で適応的な表面再構成のための新しいアプローチである。
GOFは3Dガウスのレイトレーシングに基づくボリュームレンダリングに由来する。
GOFは、表面再構成と新しいビュー合成において、既存の3DGSベースの手法を超越している。
論文 参考訳(メタデータ) (2024-04-16T17:57:19Z) - Gaussian in the Wild: 3D Gaussian Splatting for Unconstrained Image Collections [12.807052947367692]
制約のない画像における光度変化と過渡オクルーダは、元のシーンを正確に再構築することが困難である。
ニューラルレージアンスフィールド(NeRF)におけるグローバルな外観特徴の導入による課題への先行的アプローチ
この事実に触発されて,3次元ガウス点を用いてシーンを再構築する手法であるGaussian in the wild (GS-W)を提案する。
論文 参考訳(メタデータ) (2024-03-23T03:55:41Z) - HUGS: Holistic Urban 3D Scene Understanding via Gaussian Splatting [53.6394928681237]
RGB画像に基づく都市景観の全体的理解は、難しいが重要な問題である。
我々の主な考え方は、静的な3Dガウスと動的なガウスの組合せを用いた幾何学、外観、意味論、運動の合同最適化である。
提案手法は,2次元および3次元のセマンティック情報を高精度に生成し,新たな視点をリアルタイムに描画する機能を提供する。
論文 参考訳(メタデータ) (2024-03-19T13:39:05Z) - GaussianObject: High-Quality 3D Object Reconstruction from Four Views with Gaussian Splatting [82.29476781526752]
高度にスパースな視点から3Dオブジェクトを再構成・レンダリングすることは、3Dビジョン技術の応用を促進する上で非常に重要である。
GaussianObjectは、Gaussian splattingで3Dオブジェクトを表現してレンダリングするフレームワークで、4つの入力イメージだけで高いレンダリング品質を実現する。
GaussianObjectは、MipNeRF360、OmniObject3D、OpenIllumination、および私たちが収集した未提示画像など、いくつかの挑戦的なデータセットで評価されている。
論文 参考訳(メタデータ) (2024-02-15T18:42:33Z) - Sparse-view CT Reconstruction with 3D Gaussian Volumetric Representation [13.667470059238607]
Sparse-view CTは従来のCTスキャンの放射線線量を減らすための有望な戦略である。
近年、3Dガウスアンは複雑な自然シーンのモデル化に応用されている。
スパース・ビューCT再建の可能性について検討した。
論文 参考訳(メタデータ) (2023-12-25T09:47:33Z) - Scaffold-GS: Structured 3D Gaussians for View-Adaptive Rendering [71.44349029439944]
最近の3次元ガウス散乱法は、最先端のレンダリング品質と速度を達成している。
局所的な3Dガウス分布にアンカーポイントを用いるScaffold-GSを導入する。
提案手法は,高品質なレンダリングを実現しつつ,冗長なガウスを効果的に削減できることを示す。
論文 参考訳(メタデータ) (2023-11-30T17:58:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。