論文の概要: Hybrid Gaussian Splatting for Novel Urban View Synthesis
- arxiv url: http://arxiv.org/abs/2510.12308v1
- Date: Tue, 14 Oct 2025 09:09:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 19:02:32.262787
- Title: Hybrid Gaussian Splatting for Novel Urban View Synthesis
- Title(参考訳): 新しい都市景観合成のためのハイブリッドガウススプレイティング
- Authors: Mohamed Omran, Farhad Zanjani, Davide Abati, Jens Petersen, Amirhossein Habibian,
- Abstract要約: 本稿では,ICCV 2025のRealADSim Workshopで開催されているRealADSim-NVSチャレンジに対するQualcomm AI Researchソリューションについて述べる。
この課題は、ストリートシーンにおける新しいビューの合成に関するものであり、参加者は同じ都市環境のレンダリングを生成する必要がある。
本手法は,ガウススプラッティングと拡散モデルを組み合わせたシーン生成と生成シミュレータのハイブリッド手法に着想を得たものである。
世論調査の結果,提案案は総合スコア0.432に到達し,総合で2位となった。
- 参考スコア(独自算出の注目度): 9.298287928508492
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper describes the Qualcomm AI Research solution to the RealADSim-NVS challenge, hosted at the RealADSim Workshop at ICCV 2025. The challenge concerns novel view synthesis in street scenes, and participants are required to generate, starting from car-centric frames captured during some training traversals, renders of the same urban environment as viewed from a different traversal (e.g. different street lane or car direction). Our solution is inspired by hybrid methods in scene generation and generative simulators merging gaussian splatting and diffusion models, and it is composed of two stages: First, we fit a 3D reconstruction of the scene and render novel views as seen from the target cameras. Then, we enhance the resulting frames with a dedicated single-step diffusion model. We discuss specific choices made in the initialization of gaussian primitives as well as the finetuning of the enhancer model and its training data curation. We report the performance of our model design and we ablate its components in terms of novel view quality as measured by PSNR, SSIM and LPIPS. On the public leaderboard reporting test results, our proposal reaches an aggregated score of 0.432, achieving the second place overall.
- Abstract(参考訳): 本稿では,ICCV 2025のRealADSim Workshopで開催されているRealADSim-NVSチャレンジに対するQualcomm AI Researchソリューションについて述べる。
課題は、ストリートシーンにおける新しいビューの合成であり、参加者は、一部のトレーニングトラベル中にキャプチャされた車中心フレームから、異なるトラベル(例えば、異なるストリートレーンや車方向)から見るのと同じ都市環境のレンダリングを作成する必要がある。
提案手法は,ガウススプラッティングと拡散モデルを組み合わせたシーン生成と生成シミュレータのハイブリッド手法に着想を得たもので,まず,シーンの3次元再構成と,ターゲットカメラから見るような新しいビューのレンダリングを行う。
そして,専用単段拡散モデルを用いて,結果のフレームを拡大する。
本稿では,ガウスプリミティブの初期化とエンハンサーモデルとそのトレーニングデータキュレーションの微調整について論じる。
モデル設計の性能を報告し、PSNR, SSIM, LPIPSによって測定された新しいビュークオリティの点から、そのコンポーネントを補足する。
世論調査の結果,提案案は総合スコア0.432に到達し,総合で2位となった。
関連論文リスト
- ArtiFixer: Enhancing and Extending 3D Reconstruction with Auto-Regressive Diffusion Models [27.324967736816337]
3Dガウススプラッティングのようなシーンごとの最適化手法は、最先端の斬新なビュー合成の質を提供するが、観測されていない領域への外挿は不十分である。
2つの重要な洞察を利用する2段階のパイプラインを提案する。
まず、新しい不透明混合戦略を用いて、強力な双方向生成モデルを訓練する。
第二に、これを因果自己回帰モデルに蒸留し、1回のパスで数百フレームを生成する。
論文 参考訳(メタデータ) (2026-02-28T06:22:40Z) - ViSE: A Systematic Approach to Vision-Only Street-View Extrapolation [8.962361530943976]
本報告では,ICCV 2025 の RealADSim Workshop NVS トラックで優勝したソリューションについて紹介する。
街路ビューの外挿における中核的な課題に対処するために,包括的4段階パイプラインを導入する。
RealADSim-NVSベンチマークにおいて,本手法は最終スコア0.441を達成し,全参加者の中で第1位となった。
論文 参考訳(メタデータ) (2025-10-21T06:50:20Z) - FMGS-Avatar: Mesh-Guided 2D Gaussian Splatting with Foundation Model Priors for 3D Monocular Avatar Reconstruction [18.570290675633732]
2Dプリミティブをテンプレートメッシュ面に直接アタッチして位置、回転、動きを制限したメッシュガイド2Dガウススプラッティングを導入する。
Sapiensのような大規模データセットでトレーニングされた基礎モデルを活用して、モノクロビデオからの限られた視覚的手がかりを補完します。
実験により, 従来の手法に比べて再現性は優れており, 幾何的精度と外観忠実度は顕著に向上した。
論文 参考訳(メタデータ) (2025-09-18T08:41:41Z) - BRUM: Robust 3D Vehicle Reconstruction from 360 Sparse Images [21.811586185200706]
本稿では,スパースビュー入力から車両を再構築する際の課題について述べる。
我々は、新しいビューを合成するために、深度マップとロバストなポーズ推定アーキテクチャを活用する。
本稿では,合成と現実の両方の公共交通機関を特徴とする新しいデータセットを提案する。
論文 参考訳(メタデータ) (2025-07-16T10:04:35Z) - EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - RI3D: Few-Shot Gaussian Splatting With Repair and Inpainting Diffusion Priors [13.883695200241524]
RI3Dは拡散モデルのパワーを生かした新しい手法であり、入力画像のスパースセットが与えられた場合、高品質な新規ビューを再構築する。
我々の重要な貢献は、ビュー合成プロセスを可視領域を再構築し、行方不明領域を幻覚させる2つのタスクに分けることである。
我々は、様々な場面において最先端のアプローチよりも優れた、目に見える領域と欠落する領域の両方で、詳細なテクスチャで結果を生成する。
論文 参考訳(メタデータ) (2025-03-13T20:16:58Z) - Extrapolated Urban View Synthesis Benchmark [53.657271730352214]
光シミュレーターは視覚中心型自動運転車(AV)の訓練と評価に不可欠である
中心となるのはノベルビュー合成(英語版)(NVS)であり、これはAVの広範かつ連続的なポーズ分布に対応するために、様々な目に見えない視点を生成する能力である。
近年の3次元ガウス・スプラッティングのような放射場の発展は、リアルタイムなリアルタイムレンダリングを実現し、大規模ドライビングシーンのモデリングに広く利用されている。
自動運転車と都市ロボットシミュレーション技術の進歩を支援するために、データを公開します。
論文 参考訳(メタデータ) (2024-12-06T18:41:39Z) - NovelGS: Consistent Novel-view Denoising via Large Gaussian Reconstruction Model [57.92709692193132]
NovelGSは、スパースビュー画像が与えられたガウススプラッティングの拡散モデルである。
我々は3Dガウスを生成するためにトランスフォーマーネットワークを経由する新しい視点を利用する。
論文 参考訳(メタデータ) (2024-11-25T07:57:17Z) - AIM 2024 Sparse Neural Rendering Challenge: Methods and Results [64.19942455360068]
本稿では,ECCV 2024と共同で開催されるAIM(Advanceds in Image Manipulation)ワークショップの一部であるスパースニューラルレンダリングの課題についてレビューする。
この課題は、スパース画像から多様なシーンを合成する新しいカメラビューを作ることである。
参加者は、Pak Signal-to-Noise Ratio (PSNR) 測定によって測定された地中真実像に対する客観的忠実度を最適化するよう依頼される。
論文 参考訳(メタデータ) (2024-09-23T14:17:40Z) - Efficient Depth-Guided Urban View Synthesis [52.841803876653465]
高速フィードフォワード推論とシーンごとのファインチューニングのための効率的な深層誘導型都市ビュー合成(EDUS)を提案する。
EDUSは、粗い入力画像から一般化可能な都市ビュー合成を可能にするためのガイダンスとして、ノイズの多い幾何学的先行情報を利用する。
その結果,EDUSは高速なテスト時間最適化と組み合わせることで,スパース・ビュー・セッティングにおける最先端性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-07-17T08:16:25Z) - SGD: Street View Synthesis with Gaussian Splatting and Diffusion Prior [53.52396082006044]
現在の手法では、トレーニングの観点から大きく逸脱する観点で、レンダリングの品質を維持するのに苦労しています。
この問題は、移動中の車両の固定カメラが捉えた、まばらなトレーニングビューに起因している。
そこで本研究では,拡散モデルを用いて3DGSのキャパシティを向上させる手法を提案する。
論文 参考訳(メタデータ) (2024-03-29T09:20:29Z) - Generative Novel View Synthesis with 3D-Aware Diffusion Models [96.78397108732233]
単一入力画像から3D対応の新規ビュー合成のための拡散モデルを提案する。
提案手法は既存の2次元拡散バックボーンを利用するが,重要な点として,幾何学的先行を3次元特徴体積の形で組み込む。
新たなビュー生成に加えて,本手法は3次元一貫性シーケンスを自己回帰的に合成する機能を備えている。
論文 参考訳(メタデータ) (2023-04-05T17:15:47Z) - Fast Non-Rigid Radiance Fields from Monocularized Data [66.74229489512683]
本稿では,不規則に変形するシーンを360度内向きに合成する新しい手法を提案する。
提案手法のコアとなるのは, 空間情報と時間情報の処理を分離し, 訓練と推論を高速化する効率的な変形モジュール, 2) 高速ハッシュ符号化ニューラルラジオアンスフィールドとしての標準シーンを表す静的モジュールである。
どちらの場合も,本手法は従来の手法よりもはるかに高速で,7分未満で収束し,1K解像度でリアルタイムのフレームレートを実現するとともに,生成した新規なビューに対して高い視覚的精度が得られる。
論文 参考訳(メタデータ) (2022-12-02T18:51:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。