論文の概要: Hybrid Gaussian Splatting for Novel Urban View Synthesis
- arxiv url: http://arxiv.org/abs/2510.12308v1
- Date: Tue, 14 Oct 2025 09:09:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 19:02:32.262787
- Title: Hybrid Gaussian Splatting for Novel Urban View Synthesis
- Title(参考訳): 新しい都市景観合成のためのハイブリッドガウススプレイティング
- Authors: Mohamed Omran, Farhad Zanjani, Davide Abati, Jens Petersen, Amirhossein Habibian,
- Abstract要約: 本稿では,ICCV 2025のRealADSim Workshopで開催されているRealADSim-NVSチャレンジに対するQualcomm AI Researchソリューションについて述べる。
この課題は、ストリートシーンにおける新しいビューの合成に関するものであり、参加者は同じ都市環境のレンダリングを生成する必要がある。
本手法は,ガウススプラッティングと拡散モデルを組み合わせたシーン生成と生成シミュレータのハイブリッド手法に着想を得たものである。
世論調査の結果,提案案は総合スコア0.432に到達し,総合で2位となった。
- 参考スコア(独自算出の注目度): 9.298287928508492
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper describes the Qualcomm AI Research solution to the RealADSim-NVS challenge, hosted at the RealADSim Workshop at ICCV 2025. The challenge concerns novel view synthesis in street scenes, and participants are required to generate, starting from car-centric frames captured during some training traversals, renders of the same urban environment as viewed from a different traversal (e.g. different street lane or car direction). Our solution is inspired by hybrid methods in scene generation and generative simulators merging gaussian splatting and diffusion models, and it is composed of two stages: First, we fit a 3D reconstruction of the scene and render novel views as seen from the target cameras. Then, we enhance the resulting frames with a dedicated single-step diffusion model. We discuss specific choices made in the initialization of gaussian primitives as well as the finetuning of the enhancer model and its training data curation. We report the performance of our model design and we ablate its components in terms of novel view quality as measured by PSNR, SSIM and LPIPS. On the public leaderboard reporting test results, our proposal reaches an aggregated score of 0.432, achieving the second place overall.
- Abstract(参考訳): 本稿では,ICCV 2025のRealADSim Workshopで開催されているRealADSim-NVSチャレンジに対するQualcomm AI Researchソリューションについて述べる。
課題は、ストリートシーンにおける新しいビューの合成であり、参加者は、一部のトレーニングトラベル中にキャプチャされた車中心フレームから、異なるトラベル(例えば、異なるストリートレーンや車方向)から見るのと同じ都市環境のレンダリングを作成する必要がある。
提案手法は,ガウススプラッティングと拡散モデルを組み合わせたシーン生成と生成シミュレータのハイブリッド手法に着想を得たもので,まず,シーンの3次元再構成と,ターゲットカメラから見るような新しいビューのレンダリングを行う。
そして,専用単段拡散モデルを用いて,結果のフレームを拡大する。
本稿では,ガウスプリミティブの初期化とエンハンサーモデルとそのトレーニングデータキュレーションの微調整について論じる。
モデル設計の性能を報告し、PSNR, SSIM, LPIPSによって測定された新しいビュークオリティの点から、そのコンポーネントを補足する。
世論調査の結果,提案案は総合スコア0.432に到達し,総合で2位となった。
関連論文リスト
- FMGS-Avatar: Mesh-Guided 2D Gaussian Splatting with Foundation Model Priors for 3D Monocular Avatar Reconstruction [18.570290675633732]
2Dプリミティブをテンプレートメッシュ面に直接アタッチして位置、回転、動きを制限したメッシュガイド2Dガウススプラッティングを導入する。
Sapiensのような大規模データセットでトレーニングされた基礎モデルを活用して、モノクロビデオからの限られた視覚的手がかりを補完します。
実験により, 従来の手法に比べて再現性は優れており, 幾何的精度と外観忠実度は顕著に向上した。
論文 参考訳(メタデータ) (2025-09-18T08:41:41Z) - BRUM: Robust 3D Vehicle Reconstruction from 360 Sparse Images [21.811586185200706]
本稿では,スパースビュー入力から車両を再構築する際の課題について述べる。
我々は、新しいビューを合成するために、深度マップとロバストなポーズ推定アーキテクチャを活用する。
本稿では,合成と現実の両方の公共交通機関を特徴とする新しいデータセットを提案する。
論文 参考訳(メタデータ) (2025-07-16T10:04:35Z) - EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - RI3D: Few-Shot Gaussian Splatting With Repair and Inpainting Diffusion Priors [13.883695200241524]
RI3Dは拡散モデルのパワーを生かした新しい手法であり、入力画像のスパースセットが与えられた場合、高品質な新規ビューを再構築する。
我々の重要な貢献は、ビュー合成プロセスを可視領域を再構築し、行方不明領域を幻覚させる2つのタスクに分けることである。
我々は、様々な場面において最先端のアプローチよりも優れた、目に見える領域と欠落する領域の両方で、詳細なテクスチャで結果を生成する。
論文 参考訳(メタデータ) (2025-03-13T20:16:58Z) - Extrapolated Urban View Synthesis Benchmark [53.657271730352214]
光シミュレーターは視覚中心型自動運転車(AV)の訓練と評価に不可欠である
中心となるのはノベルビュー合成(英語版)(NVS)であり、これはAVの広範かつ連続的なポーズ分布に対応するために、様々な目に見えない視点を生成する能力である。
近年の3次元ガウス・スプラッティングのような放射場の発展は、リアルタイムなリアルタイムレンダリングを実現し、大規模ドライビングシーンのモデリングに広く利用されている。
自動運転車と都市ロボットシミュレーション技術の進歩を支援するために、データを公開します。
論文 参考訳(メタデータ) (2024-12-06T18:41:39Z) - AIM 2024 Sparse Neural Rendering Challenge: Methods and Results [64.19942455360068]
本稿では,ECCV 2024と共同で開催されるAIM(Advanceds in Image Manipulation)ワークショップの一部であるスパースニューラルレンダリングの課題についてレビューする。
この課題は、スパース画像から多様なシーンを合成する新しいカメラビューを作ることである。
参加者は、Pak Signal-to-Noise Ratio (PSNR) 測定によって測定された地中真実像に対する客観的忠実度を最適化するよう依頼される。
論文 参考訳(メタデータ) (2024-09-23T14:17:40Z) - SGD: Street View Synthesis with Gaussian Splatting and Diffusion Prior [53.52396082006044]
現在の手法では、トレーニングの観点から大きく逸脱する観点で、レンダリングの品質を維持するのに苦労しています。
この問題は、移動中の車両の固定カメラが捉えた、まばらなトレーニングビューに起因している。
そこで本研究では,拡散モデルを用いて3DGSのキャパシティを向上させる手法を提案する。
論文 参考訳(メタデータ) (2024-03-29T09:20:29Z) - Fast Non-Rigid Radiance Fields from Monocularized Data [66.74229489512683]
本稿では,不規則に変形するシーンを360度内向きに合成する新しい手法を提案する。
提案手法のコアとなるのは, 空間情報と時間情報の処理を分離し, 訓練と推論を高速化する効率的な変形モジュール, 2) 高速ハッシュ符号化ニューラルラジオアンスフィールドとしての標準シーンを表す静的モジュールである。
どちらの場合も,本手法は従来の手法よりもはるかに高速で,7分未満で収束し,1K解像度でリアルタイムのフレームレートを実現するとともに,生成した新規なビューに対して高い視覚的精度が得られる。
論文 参考訳(メタデータ) (2022-12-02T18:51:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。