論文の概要: Geo-NVS-w: Geometry-Aware Novel View Synthesis In-the-Wild with an SDF Renderer
- arxiv url: http://arxiv.org/abs/2601.08371v1
- Date: Tue, 13 Jan 2026 09:34:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.136583
- Title: Geo-NVS-w: Geometry-Aware Novel View Synthesis In-the-Wild with an SDF Renderer
- Title(参考訳): Geo-NVS-w: SDFレンダを用いた新しい画像合成
- Authors: Anastasios Tsalakopoulos, Angelos Kanlis, Evangelos Chatzis, Antonis Karakottas, Dimitrios Zarpalas,
- Abstract要約: 我々は,非構造内画像コレクションから高忠実な新規ビューを合成するための幾何学的枠組みであるGeo-NVS-wを紹介する。
筆者らはGeo-NVS-wが地中NVSのロバストな手法であることを示し、鮮明で幾何的に整合した細部を持つフォトリアリスティックな結果が得られることを示した。
- 参考スコア(独自算出の注目度): 1.4659475298864082
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce Geo-NVS-w, a geometry-aware framework for high-fidelity novel view synthesis from unstructured, in-the-wild image collections. While existing in-the-wild methods already excel at novel view synthesis, they often lack geometric grounding on complex surfaces, sometimes producing results that contain inconsistencies. Geo-NVS-w addresses this limitation by leveraging an underlying geometric representation based on a Signed Distance Function (SDF) to guide the rendering process. This is complemented by a novel Geometry-Preservation Loss which ensures that fine structural details are preserved. Our framework achieves competitive rendering performance, while demonstrating a 4-5x reduction reduction in energy consumption compared to similar methods. We demonstrate that Geo-NVS-w is a robust method for in-the-wild NVS, yielding photorealistic results with sharp, geometrically coherent details.
- Abstract(参考訳): 我々は,非構造内画像コレクションから高忠実な新規ビューを合成するための幾何学的枠組みであるGeo-NVS-wを紹介する。
既存のイン・ザ・ワイルドの手法は、新しいビュー合成において既に優れているが、しばしば複雑な表面の幾何学的な接地を欠き、時には矛盾を含む結果を生み出す。
Geo-NVS-wはこの制限に対処し、SDF(Signed Distance Function)に基づく幾何学的表現を活用してレンダリングプロセスをガイドする。
これは、微細構造の詳細が保存されることを保証する新しい幾何学保存損失(Geometry-Preservation Loss)によって補完される。
提案手法は,類似の手法に比べてエネルギー消費の4~5倍の低減効果を示した上で,競争力のあるレンダリング性能を実現する。
筆者らはGeo-NVS-wが地中NVSのロバストな手法であることを示し、鮮明で幾何的に整合した細部を持つフォトリアリスティックな結果が得られることを示した。
関連論文リスト
- SurfaceSplat: Connecting Surface Reconstruction and Gaussian Splatting [92.13737830605902]
スパースビュー画像による表面再構成と新しいビューレンダリングは困難である。
両手法の強みを組み合わせた新しいハイブリッド手法を提案する。
提案手法はDTUおよびMobileBrickデータセット上でのサーフェス再構成と新しいビュー合成における最先端のアプローチを超越した手法である。
論文 参考訳(メタデータ) (2025-07-21T13:25:03Z) - Aligned Novel View Image and Geometry Synthesis via Cross-modal Attention Instillation [62.87088388345378]
ワーピング・アンド・インペインティング手法を用いて,新しいビューイメージと幾何学生成の整合性を実現する拡散型フレームワークを提案する。
手法は、既製の幾何学予測器を利用して、参照画像から見る部分的な幾何学を予測する。
生成した画像と幾何の正確なアライメントを確保するために, クロスモーダルアテンション蒸留法を提案する。
論文 参考訳(メタデータ) (2025-06-13T16:19:00Z) - GeoGaussian: Geometry-aware Gaussian Splatting for Scene Rendering [83.19049705653072]
ガウススプレイティング最適化の過程で、その構造が意図的に保存されていない場合、シーンの幾何学は徐々に悪化する。
我々はこの問題を緩和するためにGeoGaussianと呼ばれる新しいアプローチを提案する。
提案するパイプラインは、新しいビュー合成と幾何再構成において最先端の性能を達成する。
論文 参考訳(メタデータ) (2024-03-17T20:06:41Z) - NeuSurf: On-Surface Priors for Neural Surface Reconstruction from Sparse
Input Views [41.03837477483364]
本研究では,表面の高度に忠実な再構成を実現するために,地上の事前情報を活用する新しいスパース・ビュー・リコンストラクション・フレームワークを提案する。
具体的には,大域的幾何アライメントと局所的幾何洗練に関するいくつかの制約を設計し,粗い形状と細部を協調的に最適化する。
DTUとBlendedMVSデータセットによる2つの一般的なスパース設定の実験結果は、最先端の手法よりも大幅に改善されたことを示している。
論文 参考訳(メタデータ) (2023-12-21T16:04:45Z) - Geo-Neus: Geometry-Consistent Neural Implicit Surfaces Learning for
Multi-view Reconstruction [41.43563122590449]
多視点再構成のための幾何一貫性のあるニューラルサーフェス学習を提案する。
提案手法は, 複雑な薄板構造と大きな平滑領域の両方において, 高品質な表面再構成を実現する。
論文 参考訳(メタデータ) (2022-05-31T14:52:07Z) - PVSeRF: Joint Pixel-, Voxel- and Surface-Aligned Radiance Field for
Single-Image Novel View Synthesis [52.546998369121354]
シングルビューRGB画像からニューラル放射場を再構成する学習フレームワークPVSeRFを提案する。
本稿では,明示的な幾何学的推論を取り入れ,放射場予測のための画素アラインな特徴と組み合わせることを提案する。
このような幾何学的特徴の導入は、外観と幾何学の絡み合いを改善するのに有効であることを示す。
論文 参考訳(メタデータ) (2022-02-10T07:39:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。