論文の概要: ArmGS: Composite Gaussian Appearance Refinement for Modeling Dynamic Urban Environments
- arxiv url: http://arxiv.org/abs/2507.03886v1
- Date: Sat, 05 Jul 2025 03:54:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.921774
- Title: ArmGS: Composite Gaussian Appearance Refinement for Modeling Dynamic Urban Environments
- Title(参考訳): ArmGS: 動的都市環境のモデリングのための複合ガウス外観リファインメント
- Authors: Guile Wu, Dongfeng Bai, Bingbing Liu,
- Abstract要約: この研究は、自律運転シミュレーションのための動的都市環境のモデリングに焦点を当てている。
我々は,多粒性外観改善を用いた複合駆動ガウススプラッティングを利用するArmGSという新しい手法を提案する。
これは、フレームとカメラの視点のグローバルなシーンの外観の変化をモデル化するだけでなく、背景と物体の局所的なきめ細かい光リアルな変化もモデル化する。
- 参考スコア(独自算出の注目度): 22.371417505012566
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work focuses on modeling dynamic urban environments for autonomous driving simulation. Contemporary data-driven methods using neural radiance fields have achieved photorealistic driving scene modeling, but they suffer from low rendering efficacy. Recently, some approaches have explored 3D Gaussian splatting for modeling dynamic urban scenes, enabling high-fidelity reconstruction and real-time rendering. However, these approaches often neglect to model fine-grained variations between frames and camera viewpoints, leading to suboptimal results. In this work, we propose a new approach named ArmGS that exploits composite driving Gaussian splatting with multi-granularity appearance refinement for autonomous driving scene modeling. The core idea of our approach is devising a multi-level appearance modeling scheme to optimize a set of transformation parameters for composite Gaussian refinement from multiple granularities, ranging from local Gaussian level to global image level and dynamic actor level. This not only models global scene appearance variations between frames and camera viewpoints, but also models local fine-grained changes of background and objects. Extensive experiments on multiple challenging autonomous driving datasets, namely, Waymo, KITTI, NOTR and VKITTI2, demonstrate the superiority of our approach over the state-of-the-art methods.
- Abstract(参考訳): 本研究は、自律走行シミュレーションのための動的都市環境のモデリングに焦点を当てる。
ニューラルラジアンス場を用いた現代のデータ駆動方式は,光リアルな駆動シーンモデリングを実現しているが,レンダリング効率の低下に悩まされている。
近年,動的な都市景観をモデル化し,高忠実度復元とリアルタイムレンダリングを可能にする3次元ガウススプラッティングについて検討している。
しかしながら、これらのアプローチはフレームとカメラの視点の微妙なバリエーションをモデル化することを無視し、最適以下の結果をもたらすことが多い。
本研究は,多粒性外観改善による複合走行ガウススプラッティングを利用した自動走行シーンモデリングのためのArmGSという新しい手法を提案する。
提案手法の中核となる考え方は,局所ガウスレベルからグローバルイメージレベル,ダイナミックアクターレベルに至るまで,複数の粒度から複合ガウス改良のための変換パラメータの集合を最適化するマルチレベル外観モデルの構築である。
これは、フレームとカメラの視点のグローバルなシーンの外観の変化をモデル化するだけでなく、背景と物体の局所的なきめ細かい変化もモデル化する。
Waymo、KITTI、NOTR、VKITTI2といった、複数の挑戦的な自律走行データセットに関する大規模な実験は、最先端の手法に対する我々のアプローチの優位性を実証している。
関連論文リスト
- FreeDriveRF: Monocular RGB Dynamic NeRF without Poses for Autonomous Driving via Point-Level Dynamic-Static Decoupling [13.495102292705253]
FreeDriveRFは、ポーズ入力を必要とせずにシーケンシャルなRGB画像のみを使用して動的駆動シーンを再構築する。
我々は、動的モデリングプロセスの制約を改善するために光学的流れを利用する、歪んだ光線誘導動的オブジェクトレンダリング整合性損失を導入する。
論文 参考訳(メタデータ) (2025-05-14T14:02:49Z) - Hybrid Rendering for Multimodal Autonomous Driving: Merging Neural and Physics-Based Simulation [1.0027737736304287]
ニューラル再構成の強みと物理ベースのレンダリングを組み合わせたハイブリッドアプローチを導入する。
提案手法は,特に道路面やレーンマーキングにおいて,新規なビュー合成品質を著しく向上させる。
ノイズの多いLiDAR点雲からの奥行き正則化により、元の画像上でカスタマイズされたNeRFモデルをトレーニングすることで、これを実現する。
論文 参考訳(メタデータ) (2025-03-12T15:18:50Z) - Pre-Trained Video Generative Models as World Simulators [59.546627730477454]
本研究では,事前学習した映像生成モデルを制御可能な世界シミュレータに変換するための動的世界シミュレーション(DWS)を提案する。
条件付き動作と生成した視覚的変化の正確なアライメントを実現するために,軽量で普遍的な動作条件付きモジュールを導入する。
実験により、DWSは拡散モデルと自己回帰変換モデルの両方に汎用的に適用可能であることが示された。
論文 参考訳(メタデータ) (2025-02-10T14:49:09Z) - OmniRe: Omni Urban Scene Reconstruction [78.99262488964423]
OmniReはデバイス上でのログから動的現実シーンの高忠実なデジタルツインを作成するための総合システムである。
提案手法は3DGS上にシーングラフを構築し,様々な動的アクターをモデル化する標準空間内に複数のガウス表現を構築する。
論文 参考訳(メタデータ) (2024-08-29T17:56:33Z) - Motion-Oriented Compositional Neural Radiance Fields for Monocular Dynamic Human Modeling [10.914612535745789]
本稿では,MoCo-NeRF(MoCo-NeRF)について述べる。
MoCo-NeRFはモノクロビデオのフリービューポイントレンダリングを実現するために設計されたフレームワークである。
論文 参考訳(メタデータ) (2024-07-16T17:59:01Z) - Dynamic 3D Gaussian Fields for Urban Areas [60.64840836584623]
大規模でダイナミックな都市部における新規ビュー合成(NVS)のための効率的なニューラル3Dシーン表現法を提案する。
本研究では,大規模都市にスケールするニューラルネットワークシーン表現である4DGFを提案する。
論文 参考訳(メタデータ) (2024-06-05T12:07:39Z) - DrivingGaussian: Composite Gaussian Splatting for Surrounding Dynamic Autonomous Driving Scenes [57.12439406121721]
我々は動的自律走行シーンを囲む効率的かつ効果的なフレームワークであるDrivingGaussianを提案する。
動くオブジェクトを持つ複雑なシーンでは、まずシーン全体の静的な背景を逐次、段階的にモデル化します。
次に、複合動的ガウスグラフを利用して、複数の移動物体を処理する。
我々はさらに、ガウススプラッティングに先立ってLiDARを使用して、より詳細でシーンを再構築し、パノラマ一貫性を維持する。
論文 参考訳(メタデータ) (2023-12-13T06:30:51Z) - Multi-Object Manipulation via Object-Centric Neural Scattering Functions [40.45919680959231]
モデル予測制御フレームワークにおいて,オブジェクト中心型ニューラル散乱関数(OSF)をオブジェクト表現として用いることを提案する。
OSFは、オブジェクトごとの光輸送をモデルとし、オブジェクトの再配置と様々な照明条件の下で構成シーンの再レンダリングを可能にする。
論文 参考訳(メタデータ) (2023-06-14T21:14:10Z) - MoCo-Flow: Neural Motion Consensus Flow for Dynamic Humans in Stationary
Monocular Cameras [98.40768911788854]
4次元連続時間変動関数を用いて動的シーンをモデル化する表現であるMoCo-Flowを紹介する。
私たちの研究の中心には、運動フロー上の運動コンセンサス正規化によって制約される、新しい最適化の定式化がある。
複雑度の異なる人間の動きを含む複数のデータセット上でMoCo-Flowを広範囲に評価した。
論文 参考訳(メタデータ) (2021-06-08T16:03:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。