論文の概要: Geometry-Aware Scene Configurations for Novel View Synthesis
- arxiv url: http://arxiv.org/abs/2510.09880v1
- Date: Fri, 10 Oct 2025 21:36:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.665035
- Title: Geometry-Aware Scene Configurations for Novel View Synthesis
- Title(参考訳): 新しい視点合成のための幾何学的シーン構成
- Authors: Minkwan Kim, Changwoon Choi, Young Min Kim,
- Abstract要約: 不完全な観測から室内環境の没入的な体験を効果的に生み出すためのシーン適応型手法を提案する。
推定された幾何学的足場に関する観測統計を記録し, 基地の最適配置を導出する。
大規模屋内シーンにおけるレンダリング品質とメモリ要件に関する総合的な分析と議論について述べる。
- 参考スコア(独自算出の注目度): 13.778862691255954
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose scene-adaptive strategies to efficiently allocate representation capacity for generating immersive experiences of indoor environments from incomplete observations. Indoor scenes with multiple rooms often exhibit irregular layouts with varying complexity, containing clutter, occlusion, and flat walls. We maximize the utilization of limited resources with guidance from geometric priors, which are often readily available after pre-processing stages. We record observation statistics on the estimated geometric scaffold and guide the optimal placement of bases, which greatly improves upon the uniform basis arrangements adopted by previous scalable Neural Radiance Field (NeRF) representations. We also suggest scene-adaptive virtual viewpoints to compensate for geometric deficiencies inherent in view configurations in the input trajectory and impose the necessary regularization. We present a comprehensive analysis and discussion regarding rendering quality and memory requirements in several large-scale indoor scenes, demonstrating significant enhancements compared to baselines that employ regular placements.
- Abstract(参考訳): 不完全な観測から室内環境の没入的な体験を効果的に生み出すためのシーン適応型手法を提案する。
複数の部屋を持つ屋内のシーンは、乱雑、閉塞、平らな壁を含む様々な複雑さを持つ不規則なレイアウトを示すことが多い。
我々は,前処理段階の後に手軽に利用できるような幾何学的事前のガイダンスによる限られた資源の利用を最大化する。
我々は、推定された幾何学的足場に関する観測統計を記録し、基底の最適配置を導出し、従来の拡張性ニューラルネットワーク(NeRF)表現で採用された均一な基底配置を大幅に改善する。
また、入力軌跡のビュー構成に固有の幾何学的欠陥を補償し、必要な正規化を課すシーン適応仮想視点を提案する。
いくつかの大規模屋内シーンにおけるレンダリング品質とメモリ要件に関する総合的な分析と議論を行い、通常の配置を用いたベースラインに比べて大幅に向上したことを示す。
関連論文リスト
- G4Splat: Geometry-Guided Gaussian Splatting with Generative Prior [53.762256749551284]
我々は,3次元シーン再構成を効果的に活用するための基本的な前提条件として,正確な幾何学を同定する。
生成パイプライン全体にこの幾何学的ガイダンスを導入し、可視性マスク推定を改善し、新しいビュー選択をガイドし、ビデオ拡散モデルに着色した場合の多視点一貫性を向上させる。
本手法は,屋内および屋外の両方のシナリオにおいて,高い一般化性を有するシングルビュー入力とアンポーズ映像を自然にサポートする。
論文 参考訳(メタデータ) (2025-10-14T03:06:28Z) - MS-GS: Multi-Appearance Sparse-View 3D Gaussian Splatting in the Wild [47.52462219920857]
野生の写真コレクションは、しばしば限られた量の画像を含んでおり、複数の外観を示す。
3DGS を用いたスパースビューシナリオにおけるマルチアジュアンス機能を備えた新しいフレームワーク MS-GS を提案する。
我々は,MS-GSが様々な難解な視界とマルチアジュアンス条件下でレンダリングを実現することを実証した。
論文 参考訳(メタデータ) (2025-09-19T03:06:49Z) - CHROMA: Consistent Harmonization of Multi-View Appearance via Bilateral Grid Prediction [30.088316989385106]
カメラパイプラインは、露光調整、ホワイトバランス、色補正など、デバイス上の広範な処理を適用する。
外観の変化は複数ビューの一貫性に反し、新しいビュー合成を劣化させる。
多視点一貫した方法で測光変動を補正するために、空間適応型二元格子を予測できる一般化可能なフィードフォワード手法を提案する。
論文 参考訳(メタデータ) (2025-07-21T16:03:58Z) - Intern-GS: Vision Model Guided Sparse-View 3D Gaussian Splatting [95.61137026932062]
Intern-GSはスパースビューガウススプラッティングのプロセスを強化する新しいアプローチである。
Intern-GSは多様なデータセットにまたがって最先端のレンダリング品質を実現する。
論文 参考訳(メタデータ) (2025-05-27T05:17:49Z) - Self-training Room Layout Estimation via Geometry-aware Ray-casting [27.906107629563852]
本研究では,未表示のシーンにおける室内レイアウト推定モデルのための幾何学的自己学習フレームワークを提案する。
提案手法では,異なる視点からの複数の推定値の集計にレイキャストの定式化を用いる。
論文 参考訳(メタデータ) (2024-07-21T03:25:55Z) - 360 Layout Estimation via Orthogonal Planes Disentanglement and Multi-view Geometric Consistency Perception [56.84921040837699]
既存のパノラマ配置推定ソリューションは、垂直圧縮されたシーケンスから部屋の境界を復元し、不正確な結果をもたらす傾向にある。
そこで本稿では,直交平面不整合ネットワーク(DOPNet)を提案し,あいまいな意味論を識別する。
また,水平深度と比表現に適した教師なし適応手法を提案する。
本手法は,単分子配置推定と多視点レイアウト推定の両タスクにおいて,他のSoTAモデルよりも優れる。
論文 参考訳(メタデータ) (2023-12-26T12:16:03Z) - Indoor Scene Reconstruction with Fine-Grained Details Using Hybrid Representation and Normal Prior Enhancement [50.56517624931987]
多視点RGB画像からの室内シーンの再構成は、平坦領域とテクスチャレス領域の共存により困難である。
近年の手法では、予測された表面正規化によって支援されたニューラルラジアンス場を利用してシーン形状を復元している。
本研究は, 上記の制限に対処して, 高忠実度表面を細かな詳細で再構築することを目的とする。
論文 参考訳(メタデータ) (2023-09-14T12:05:29Z) - DARF: Depth-Aware Generalizable Neural Radiance Field [51.29437249009986]
本稿では,Depth-Aware Dynamic Smpling(DADS)戦略を用いたDARF(Depth-Aware Generalizable Neural Radiance Field)を提案する。
筆者らのフレームワークは,数枚の入力画像で,画素レベルと幾何学レベルの両方の見えないシーンを推測する。
DARFは、最先端の一般化可能なNeRF法と比較して、レンダリング品質と深さ推定を改善しつつ、サンプルを50%削減する。
論文 参考訳(メタデータ) (2022-12-05T14:00:59Z) - Depth Field Networks for Generalizable Multi-view Scene Representation [31.090289865520475]
我々は、ビューの多様性を高めるために、幾何学的帰納法として、一連の3次元データ拡張手法を導入し、暗黙的に多視点一貫したシーン表現を学習する。
我々のDeFiNe(Depth Field Networks)は、明示的な幾何学的制約を伴わずにステレオとビデオの深さを推定し、広いマージンでゼロショット領域の一般化を改善する。
論文 参考訳(メタデータ) (2022-07-28T17:59:31Z) - Sign-Agnostic CONet: Learning Implicit Surface Reconstructions by
Sign-Agnostic Optimization of Convolutional Occupancy Networks [39.65056638604885]
畳み込み型ネットワークの符号非依存最適化により暗黙的表面再構成を学習する。
この目標をシンプルで効果的な設計で効果的に達成できることを示す。
論文 参考訳(メタデータ) (2021-05-08T03:35:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。