論文の概要: StyledStreets: Multi-style Street Simulator with Spatial and Temporal Consistency
- arxiv url: http://arxiv.org/abs/2503.21104v1
- Date: Thu, 27 Mar 2025 02:52:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-28 12:52:49.077096
- Title: StyledStreets: Multi-style Street Simulator with Spatial and Temporal Consistency
- Title(参考訳): StyledStreets:空間的・時間的整合性を有するマルチスタイルストリートシミュレータ
- Authors: Yuyin Chen, Yida Wang, Xueyang Zhang, Kun Zhan, Peng Jia, Yifei Zhan, Xianpeng Lang,
- Abstract要約: textbfStyledStreetsは、命令駆動のシーン編集を実現するマルチスタイルのストリートシミュレータである。
ハイブリッド埋め込みスキームは、過渡的なスタイル属性から永続的なシーン幾何学を分離する。
統一パラメトリックモデルは 正規化更新による 幾何学的ドリフトを防ぐ
- 参考スコア(独自算出の注目度): 7.860619819904401
- License:
- Abstract: Urban scene reconstruction requires modeling both static infrastructure and dynamic elements while supporting diverse environmental conditions. We present \textbf{StyledStreets}, a multi-style street simulator that achieves instruction-driven scene editing with guaranteed spatial and temporal consistency. Building on a state-of-the-art Gaussian Splatting framework for street scenarios enhanced by our proposed pose optimization and multi-view training, our method enables photorealistic style transfers across seasons, weather conditions, and camera setups through three key innovations: First, a hybrid embedding scheme disentangles persistent scene geometry from transient style attributes, allowing realistic environmental edits while preserving structural integrity. Second, uncertainty-aware rendering mitigates supervision noise from diffusion priors, enabling robust training across extreme style variations. Third, a unified parametric model prevents geometric drift through regularized updates, maintaining multi-view consistency across seven vehicle-mounted cameras. Our framework preserves the original scene's motion patterns and geometric relationships. Qualitative results demonstrate plausible transitions between diverse conditions (snow, sandstorm, night), while quantitative evaluations show state-of-the-art geometric accuracy under style transfers. The approach establishes new capabilities for urban simulation, with applications in autonomous vehicle testing and augmented reality systems requiring reliable environmental consistency. Codes will be publicly available upon publication.
- Abstract(参考訳): 都市景観の再構築には、様々な環境条件を守りながら、静的なインフラと動的要素の両方をモデル化する必要がある。
本稿では,空間的・時間的整合性を確保したマルチスタイルストリートシミュレータであるtextbf{StyledStreets}を提案する。
提案手法は,提案したポーズ最適化とマルチビュートレーニングによって強化された街路シナリオのための最先端のガウス・スプレイティング・フレームワーク上に構築され,3つの重要な革新を通じて,季節,気象条件,カメラ設定のフォトリアリスティックなスタイル転送を可能にする。
第二に、不確実性を考慮したレンダリングは、拡散前の監視ノイズを軽減し、極端なスタイルのバリエーションにわたって堅牢なトレーニングを可能にする。
第三に、統一されたパラメトリックモデルにより、定期的な更新による幾何学的ドリフトが防止され、7台の車載カメラの多視点一貫性が維持される。
本フレームワークは,原シーンの運動パターンと幾何学的関係を保存している。
定性的な結果は、様々な条件(雪、砂嵐、夜)間のプラウシブルな遷移を示す一方、定量的評価は、スタイル伝達における最先端の幾何学的精度を示す。
このアプローチは、自動運転車のテストや拡張現実システムにおける信頼性の高い環境整合性を必要とする、都市シミュレーションのための新しい能力を確立する。
コードは公開時に公開される。
関連論文リスト
- Adaptive and Temporally Consistent Gaussian Surfels for Multi-view Dynamic Reconstruction [3.9363268745580426]
AT-GSは、フレーム単位のインクリメンタル最適化により、多視点ビデオから高品質な動的曲面を再構成する新しい手法である。
連続するフレーム間の曲率写像の整合性を確保することにより、動的表面における時間的ジッタリングを低減する。
本手法は動的表面再構成の精度と時間的コヒーレンスを向上し,高忠実度空間時間新奇なビュー合成を実現する。
論文 参考訳(メタデータ) (2024-11-10T21:30:16Z) - OmniRe: Omni Urban Scene Reconstruction [78.99262488964423]
デバイス上でのログから高忠実度な都市景観を効率的に再構築するための総合的アプローチであるOmniReを紹介する。
我々はOmniReという名前のシーンを駆動するための総合的な3DGSフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-29T17:56:33Z) - AutoSplat: Constrained Gaussian Splatting for Autonomous Driving Scene Reconstruction [17.600027937450342]
AutoSplatは、自動走行シーンの高度に現実的な再構築を実現するために、ガウシアンスプラッティングを使用したフレームワークである。
本手法は,車線変更を含む課題シナリオの多視点一貫したシミュレーションを可能にする。
論文 参考訳(メタデータ) (2024-07-02T18:36:50Z) - MultiDiff: Consistent Novel View Synthesis from a Single Image [60.04215655745264]
MultiDiffは、単一のRGB画像からシーンを一貫した新しいビュー合成のための新しいアプローチである。
以上の結果から,MultiDiffは,課題の多いリアルタイムデータセットであるRealEstate10KとScanNetにおいて,最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-06-26T17:53:51Z) - Modeling Ambient Scene Dynamics for Free-view Synthesis [31.233859111566613]
モノクルキャプチャから周囲のシーンを動的に自由視点で合成する手法を提案する。
本手法は, 複雑な静的シーンを忠実に再構築できる3次元ガウス散乱(3DGS)の最近の進歩に基づいている。
論文 参考訳(メタデータ) (2024-06-13T17:59:11Z) - ViiNeuS: Volumetric Initialization for Implicit Neural Surface reconstruction of urban scenes with limited image overlap [4.216707699421813]
ViiNeuSは、符号付き距離場を効率よく初期化する、新しいハイブリッドな暗黙曲面学習法である。
ViiNeuSは、訓練の2倍の速さで、様々な都市景観の正確な3次元表面表現を学習できることを示す。
論文 参考訳(メタデータ) (2024-03-15T14:31:17Z) - Periodic Vibration Gaussian: Dynamic Urban Scene Reconstruction and Real-time Rendering [36.111845416439095]
周期振動ガウスモデル(PVG)を提案する。
PVGは、当初静的シーン表現のために設計された効率的な3Dガウススプラッティング技術に基づいている。
PVGは、最良の代替品よりも900倍の速度でレンダリングできる。
論文 参考訳(メタデータ) (2023-11-30T13:53:50Z) - Street-View Image Generation from a Bird's-Eye View Layout [95.36869800896335]
近年,Bird's-Eye View (BEV) の知覚が注目されている。
自動運転のためのデータ駆動シミュレーションは、最近の研究の焦点となっている。
本稿では,現実的かつ空間的に一貫した周辺画像を合成する条件生成モデルであるBEVGenを提案する。
論文 参考訳(メタデータ) (2023-01-11T18:39:34Z) - Drivable Volumetric Avatars using Texel-Aligned Features [52.89305658071045]
光テレプレゼンスは、動的に合成された外観を実現するために、高忠実度ボディモデリングと忠実な運転の両方を必要とする。
本稿では,現実人のフルボディアバターをモデリングし,駆動する際の2つの課題に対処するエンドツーエンドフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-20T09:28:16Z) - TrafficSim: Learning to Simulate Realistic Multi-Agent Behaviors [74.67698916175614]
リアル交通シミュレーションのためのマルチエージェント行動モデルであるTrafficSimを提案する。
特に、暗黙の潜在変数モデルを利用して、共同アクターポリシーをパラメータ化する。
TrafficSimは、多様なベースラインと比較して、より現実的で多様なトラフィックシナリオを生成します。
論文 参考訳(メタデータ) (2021-01-17T00:29:30Z) - GeoSim: Photorealistic Image Simulation with Geometry-Aware Composition [81.24107630746508]
GeoSimは、新しい都市の運転シーンを合成するジオメトリ認識の画像合成プロセスです。
まず、センサーデータからリアルな形状と外観の両方を備えた多様な3Dオブジェクトのバンクを構築します。
得られた合成画像は、フォトリアリズム、トラフィック認識、幾何学的一貫性があり、画像シミュレーションが複雑なユースケースにスケールできる。
論文 参考訳(メタデータ) (2021-01-16T23:00:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。