論文の概要: GaussianLens: Localized High-Resolution Reconstruction via On-Demand Gaussian Densification
- arxiv url: http://arxiv.org/abs/2509.25603v1
- Date: Mon, 29 Sep 2025 23:58:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 14:44:59.965096
- Title: GaussianLens: Localized High-Resolution Reconstruction via On-Demand Gaussian Densification
- Title(参考訳): GaussianLens:On-Demand Gaussian Densificationによる高分解能再構築
- Authors: Yijia Weng, Zhicheng Wang, Songyou Peng, Saining Xie, Howard Zhou, Leonidas J. Guibas,
- Abstract要約: そこで本研究では,ユーザの関心領域の詳細な情報を取得するために,初期3DGSを高密度化するための一般化可能なネットワークを提案する。
提案手法の局所的な細部再構築における優れた性能と,最大1024時間1024ドルの解像度の画像に対するスケーラビリティを示す実験を行った。
- 参考スコア(独自算出の注目度): 77.40235389999
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We perceive our surroundings with an active focus, paying more attention to regions of interest, such as the shelf labels in a grocery store. When it comes to scene reconstruction, this human perception trait calls for spatially varying degrees of detail ready for closer inspection in critical regions, preferably reconstructed on demand. While recent works in 3D Gaussian Splatting (3DGS) achieve fast, generalizable reconstruction from sparse views, their uniform resolution output leads to high computational costs unscalable to high-resolution training. As a result, they cannot leverage available images at their original high resolution to reconstruct details. Per-scene optimization methods reconstruct finer details with adaptive density control, yet require dense observations and lengthy offline optimization. To bridge the gap between the prohibitive cost of high-resolution holistic reconstructions and the user needs for localized fine details, we propose the problem of localized high-resolution reconstruction via on-demand Gaussian densification. Given a low-resolution 3DGS reconstruction, the goal is to learn a generalizable network that densifies the initial 3DGS to capture fine details in a user-specified local region of interest (RoI), based on sparse high-resolution observations of the RoI. This formulation avoids the high cost and redundancy of uniformly high-resolution reconstructions and fully leverages high-resolution captures in critical regions. We propose GaussianLens, a feed-forward densification framework that fuses multi-modal information from the initial 3DGS and multi-view images. We further design a pixel-guided densification mechanism that effectively captures details under large resolution increases. Experiments demonstrate our method's superior performance in local fine detail reconstruction and strong scalability to images of up to $1024\times1024$ resolution.
- Abstract(参考訳): 私たちは、食料品店の棚のラベルなど、関心のある地域への注意を払って、活発な焦点で周囲を認識しています。
シーン再構築に関して、この人間の知覚特性は、重要領域のより深い検査が可能な空間的に異なる詳細度を要求され、好ましくは必要に応じて再構成される。
近年の3Dガウススプラッティング(3DGS)の研究は、スパースビューから高速で一般化可能な再構築を実現しているが、その均一な解像度の出力は、高解像度のトレーニングでは計算コストの増大につながる。
結果として、利用可能な画像を元の高解像度で利用して詳細を再構築することはできない。
シーンごとの最適化手法は、より微妙な詳細を適応密度制御で再構成するが、高密度な観測と長いオフライン最適化が必要である。
高精細度化の禁止コストと局所化細部へのユーザニーズとのギャップを埋めるため,オンデマンドガウス密度化による局所化高精細化の問題を提案する。
低分解能な3DGS再構成を前提として,RoIの低分解能な高分解能観測に基づいて,初期3DGSを密度化してユーザ指定の局所的関心領域(RoI)の細部を捉える一般化可能なネットワークを学習することが目的である。
この定式化は、一様高分解能再構成のコストと冗長性を回避し、臨界領域における高分解能キャプチャを完全に活用する。
本稿では,最初の3DGSおよびマルチビュー画像からマルチモーダル情報を融合するフィードフォワード密度化フレームワークであるGaussianLensを提案する。
我々はさらに、高解像度化下でのディテールを効果的にキャプチャする画素誘導型デンシフィケーション機構を設計する。
提案手法の局所的な細部再構築における優れた性能と,最大1024\times1024$解像度の画像のスケーラビリティを示す実験を行った。
関連論文リスト
- High-Fidelity and Generalizable Neural Surface Reconstruction with Sparse Feature Volumes [50.83282258807327]
一般化可能なニューラルサーフェス再構成は、シーンごとの最適化なしに、少数の画像から再構成するための魅力的な技術となっている。
本稿では,メモリ効率を最大化し,標準ハードウェア上での高分解能再構成を可能にするスパース表現法を提案する。
論文 参考訳(メタデータ) (2025-07-08T12:50:39Z) - Intern-GS: Vision Model Guided Sparse-View 3D Gaussian Splatting [95.61137026932062]
Intern-GSはスパースビューガウススプラッティングのプロセスを強化する新しいアプローチである。
Intern-GSは多様なデータセットにまたがって最先端のレンダリング品質を実現する。
論文 参考訳(メタデータ) (2025-05-27T05:17:49Z) - SuperGS: Consistent and Detailed 3D Super-Resolution Scene Reconstruction via Gaussian Splatting [6.309174895120047]
3D Gaussian Splatting (3DGS)は、新しいビュー合成(NVS)に優れ、リアルタイムレンダリング機能と優れた品質を備えている。
しかし、低解像度の入力ビューから派生したプリミティブの粗い性質のため、高解像度の新規ビュー合成(HRNVS)の課題に直面している。
2段階の粗大なトレーニングフレームワークで設計したScaffold-GSの拡張であるSuperGSを提案する。
論文 参考訳(メタデータ) (2025-05-24T11:33:57Z) - Steepest Descent Density Control for Compact 3D Gaussian Splatting [72.54055499344052]
3D Gaussian Splatting (3DGS)は、強力なリアルタイム高解像度ノベルビューとして登場した。
本稿では,3DGSの密度制御をデミストし,改良する理論的枠組みを提案する。
我々はSteepGSを導入し、コンパクトな点雲を維持しながら損失を最小限に抑える原則的戦略である、最も急な密度制御を取り入れた。
論文 参考訳(メタデータ) (2025-05-08T18:41:38Z) - HUG: Hierarchical Urban Gaussian Splatting with Block-Based Reconstruction for Large-Scale Aerial Scenes [13.214165748862815]
3DGS法は、過剰なメモリ消費、遅いトレーニング時間、長いパーティショニングプロセス、データボリュームの増加によるレンダリング品質の大幅な低下といった問題に悩まされている。
階層型ニューラルガウス表現を活用することでデータ分割と復元品質を向上させる新しいアプローチである textbfHUG を導入する。
提案手法は,1つの合成データセットと4つの実世界のデータセットに対して,最先端の結果を得る。
論文 参考訳(メタデータ) (2025-04-23T10:40:40Z) - FreeSplat++: Generalizable 3D Gaussian Splatting for Efficient Indoor Scene Reconstruction [50.534213038479926]
FreeSplat++は大規模な屋内全シーン再構築の代替手法である。
深度調整による微調整により,再現精度が大幅に向上し,トレーニング時間も大幅に短縮された。
論文 参考訳(メタデータ) (2025-03-29T06:22:08Z) - Radiant: Large-scale 3D Gaussian Rendering based on Hierarchical Framework [13.583584930991847]
大規模シーン再構成のための階層型3DGSアルゴリズムであるRadiantを提案する。
Radiantは、リビルド品質を最大25.7%改善し、エンドツーエンドのレイテンシを79.6%削減した。
論文 参考訳(メタデータ) (2024-12-07T05:48:00Z) - GaRField++: Reinforced Gaussian Radiance Fields for Large-Scale 3D Scene Reconstruction [1.7624442706463355]
本稿では,3次元ガウススプラッティングに基づく大規模シーン再構築のための新しい枠組みを提案する(3DGS)。
スケーラビリティ問題に対処するため,大規模シーンを複数のセルに分割し,各セルの候補ポイントクラウドとカメラビューとを相関させる。
本研究では,大規模シーン再構成の最先端手法よりも連続的に高忠実度レンダリング結果を生成することを示す。
論文 参考訳(メタデータ) (2024-09-19T13:43:31Z) - Best-Buddy GANs for Highly Detailed Image Super-Resolution [71.13466303340192]
我々は,低分解能(LR)入力に基づいて高分解能(HR)画像を生成する単一画像超解像(SISR)問題を考える。
このラインに沿ったほとんどのメソッドは、SISRタスクに十分な柔軟性がない、事前定義されたシングルLRシングルHRマッピングに依存しています。
リッチディテールSISRのためのベストバディGAN(Beby-GAN)を提案する。
イミュータブルな1対1の制約を緩和することで、推定されたパッチを動的に最高の監視を求めることができる。
論文 参考訳(メタデータ) (2021-03-29T02:58:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。