論文の概要: GaussianSR: 3D Gaussian Super-Resolution with 2D Diffusion Priors
- arxiv url: http://arxiv.org/abs/2406.10111v1
- Date: Fri, 14 Jun 2024 15:19:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-17 13:06:25.445016
- Title: GaussianSR: 3D Gaussian Super-Resolution with 2D Diffusion Priors
- Title(参考訳): GaussianSR: 2次元拡散先行した3次元ガウス超解法
- Authors: Xiqian Yu, Hanxin Zhu, Tianyu He, Zhibo Chen,
- Abstract要約: 低分解能入力ビューからの高分解能新規ビュー合成(HRNVS)は、高分解能データがないため難しい課題である。
従来の手法では、低解像度の入力ビューから高分解能ニューラルネットワーク(NeRF)を最適化するが、レンダリング速度は遅い。
本研究では,高速なレンダリング速度で高品質な画像を生成する能力により,3Dガウススティング(3DGS)に基づく手法を提案する。
- 参考スコア(独自算出の注目度): 14.743494200205754
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Achieving high-resolution novel view synthesis (HRNVS) from low-resolution input views is a challenging task due to the lack of high-resolution data. Previous methods optimize high-resolution Neural Radiance Field (NeRF) from low-resolution input views but suffer from slow rendering speed. In this work, we base our method on 3D Gaussian Splatting (3DGS) due to its capability of producing high-quality images at a faster rendering speed. To alleviate the shortage of data for higher-resolution synthesis, we propose to leverage off-the-shelf 2D diffusion priors by distilling the 2D knowledge into 3D with Score Distillation Sampling (SDS). Nevertheless, applying SDS directly to Gaussian-based 3D super-resolution leads to undesirable and redundant 3D Gaussian primitives, due to the randomness brought by generative priors. To mitigate this issue, we introduce two simple yet effective techniques to reduce stochastic disturbances introduced by SDS. Specifically, we 1) shrink the range of diffusion timestep in SDS with an annealing strategy; 2) randomly discard redundant Gaussian primitives during densification. Extensive experiments have demonstrated that our proposed GaussainSR can attain high-quality results for HRNVS with only low-resolution inputs on both synthetic and real-world datasets. Project page: https://chchnii.github.io/GaussianSR/
- Abstract(参考訳): 低解像度の入力ビューから高解像度の新規ビュー合成(HRNVS)を実現することは、高解像度データの欠如による課題である。
従来の手法では、低解像度の入力ビューから高分解能ニューラルラジアンス場(NeRF)を最適化するが、レンダリング速度は遅い。
本研究では,高速なレンダリング速度で高品質な画像を生成することができるため,本手法を3次元ガウススティング(3DGS)に基づく。
高分解能合成のためのデータの不足を軽減するため,SDS(Score Distillation Sampling)を用いて2次元の知識を3次元に蒸留することにより,市販の2次元拡散の先進的利用を提案する。
それでも、SDSをガウス系3D超解像に直接適用すると、生成前の乱れによって引き起こされるため、望ましくない冗長な3Dガウスプリミティブが生じる。
この問題を軽減するために,SDSが導入した確率的障害を軽減するための,単純かつ効果的な2つの手法を提案する。
具体的には
1) 焼鈍戦略によりSDSの拡散時間範囲を縮小する。
2) デンシフィケーション中に冗長なガウス原始体をランダムに廃棄する。
広汎な実験により,提案したGaussainSRは,合成データセットと実世界のデータセットの両方において,低解像度の入力のみを用いて,HRNVSの高品質な結果が得られることが示された。
プロジェクトページ:https://chnii.github.io/GaussianSR/
関連論文リスト
- Binocular-Guided 3D Gaussian Splatting with View Consistency for Sparse View Synthesis [53.702118455883095]
本稿では,ガウススプラッティングを用いたスパースビューから新しいビューを合成する新しい手法を提案する。
私たちのキーとなるアイデアは、両眼画像間の両眼立体的一貫性に固有の自己超越を探索することにあります。
我々の手法は最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2024-10-24T15:10:27Z) - AdR-Gaussian: Accelerating Gaussian Splatting with Adaptive Radius [38.774337140911044]
3D Gaussian Splatting (3DGS)は、複雑なシーンの高品質な再構成とリアルタイムレンダリングを実現した、最近の明示的な3D表現である。
本稿では,AdR-Gaussianを提案する。これは並列カリングを実現するために,Renderステージのシリアルカリングの一部を前処理ステージに移動させる。
私たちのコントリビューションは3倍で、レンダリング速度は310%で、最先端技術よりも同等かそれ以上品質を維持しています。
論文 参考訳(メタデータ) (2024-09-13T09:32:38Z) - R$^2$-Gaussian: Rectifying Radiative Gaussian Splatting for Tomographic Reconstruction [53.19869886963333]
3次元ガウススプラッティング(3DGS)は画像のレンダリングと表面再構成において有望な結果を示した。
本稿では,Sparse-viewトモグラフィ再構成のための3DGSベースのフレームワークであるR2$-Gaussianを紹介する。
論文 参考訳(メタデータ) (2024-05-31T08:39:02Z) - SRGS: Super-Resolution 3D Gaussian Splatting [14.26021476067791]
本稿では,高分解能(HR)空間における最適化を実現するために,超解像3Dガウススティング(SRGS)を提案する。
サブピクセル制約はHR空間における視点の増大のために導入され、多重低解像度(LR)ビューのサブピクセル・クロスビュー情報を利用する。
MIP-NeRF 360 や Tanks & Temples のような挑戦的なデータセットにおいて,HRNVS のレンダリング品質は LR 入力のみで向上する。
論文 参考訳(メタデータ) (2024-04-16T06:58:30Z) - End-to-End Rate-Distortion Optimized 3D Gaussian Representation [33.20840558425759]
本稿では,コンパクトな3次元ガウス学習をエンドツーエンドのレート・ディストーション最適化問題として定式化する。
動的プルーニングとエントロピー制約ベクトル量子化(ECVQ)を導入し、同時に速度と歪みを最適化する。
RDO-Gaussianが40倍の3Dガウスサイズを大幅に縮小することを示すため,実シーンと合成シーンの両方で本手法の有効性を確認した。
論文 参考訳(メタデータ) (2024-04-09T14:37:54Z) - 3DGSR: Implicit Surface Reconstruction with 3D Gaussian Splatting [58.95801720309658]
本稿では,3次元ガウス散乱(3DGS),すなわち3DGSRを用いた暗黙的表面再構成法を提案する。
重要な洞察は、暗黙の符号付き距離場(SDF)を3Dガウスに組み込んで、それらが整列され、共同最適化されるようにすることである。
実験により, 3DGSの効率とレンダリング品質を保ちながら, 高品質な3D表面再構成が可能な3DGSR法が実証された。
論文 参考訳(メタデータ) (2024-03-30T16:35:38Z) - Sparse-view CT Reconstruction with 3D Gaussian Volumetric Representation [13.667470059238607]
Sparse-view CTは従来のCTスキャンの放射線線量を減らすための有望な戦略である。
近年、3Dガウスアンは複雑な自然シーンのモデル化に応用されている。
スパース・ビューCT再建の可能性について検討した。
論文 参考訳(メタデータ) (2023-12-25T09:47:33Z) - StableDreamer: Taming Noisy Score Distillation Sampling for Text-to-3D [88.66678730537777]
本稿では3つの進歩を取り入れた方法論であるStableDreamerを紹介する。
まず、SDS生成前の等価性と、簡単な教師付きL2再構成損失を定式化する。
第2に,画像空間拡散は幾何学的精度に寄与するが,色調の鮮明化には潜時空間拡散が不可欠であることを示す。
論文 参考訳(メタデータ) (2023-12-02T02:27:58Z) - HumanGaussian: Text-Driven 3D Human Generation with Gaussian Splatting [113.37908093915837]
既存の方法は、スコア蒸留サンプリング(SDS)を通じてメッシュやニューラルフィールドのような3D表現を最適化する。
本稿では,高精細な形状とリアルな外観を持つ高品質な3D人間を創出する,効率的かつ効果的な枠組みであるHumanGaussianを提案する。
論文 参考訳(メタデータ) (2023-11-28T18:59:58Z) - DreamGaussian: Generative Gaussian Splatting for Efficient 3D Content Creation [55.661467968178066]
本稿では,DreamGaussianを提案する。DreamGaussianは,効率と品質を両立させる新しい3Dコンテンツ生成フレームワークである。
我々の重要な洞察は、UV空間におけるメッシュ抽出とテクスチャ改善を伴う3次元ガウススプラッティングモデルを設計することである。
ニューラル・ラジアンス・フィールドにおける占有プルーニングとは対照的に、3次元ガウスの進行的な密度化は3次元生成タスクにおいて著しく速く収束することを示した。
論文 参考訳(メタデータ) (2023-09-28T17:55:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。