論文の概要: IDU: Incremental Dynamic Update of Existing 3D Virtual Environments with New Imagery Data
- arxiv url: http://arxiv.org/abs/2508.17579v1
- Date: Mon, 25 Aug 2025 01:00:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.594232
- Title: IDU: Incremental Dynamic Update of Existing 3D Virtual Environments with New Imagery Data
- Title(参考訳): IDU:新しい画像データを用いた既存の3次元仮想環境の動的更新
- Authors: Meida Chen, Luis Leal, Yue Hu, Rong Liu, Butian Xiong, Andrew Feng, Jiuyi Xu, Yangming Shi,
- Abstract要約: Incremental Dynamic Update (IDU)パイプラインを導入し、既存の3D再構成を効率的に更新する。
我々のアプローチは、カメラのポーズ推定から始まり、新しい画像を既存の3Dモデルに合わせる。
そして、3D生成AIモデルを使用して、新しい要素の高品質な3Dアセットを生成し、既存の3Dモデルにシームレスに統合する。
- 参考スコア(独自算出の注目度): 9.026828976817992
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: For simulation and training purposes, military organizations have made substantial investments in developing high-resolution 3D virtual environments through extensive imaging and 3D scanning. However, the dynamic nature of battlefield conditions-where objects may appear or vanish over time-makes frequent full-scale updates both time-consuming and costly. In response, we introduce the Incremental Dynamic Update (IDU) pipeline, which efficiently updates existing 3D reconstructions, such as 3D Gaussian Splatting (3DGS), with only a small set of newly acquired images. Our approach starts with camera pose estimation to align new images with the existing 3D model, followed by change detection to pinpoint modifications in the scene. A 3D generative AI model is then used to create high-quality 3D assets of the new elements, which are seamlessly integrated into the existing 3D model. The IDU pipeline incorporates human guidance to ensure high accuracy in object identification and placement, with each update focusing on a single new object at a time. Experimental results confirm that our proposed IDU pipeline significantly reduces update time and labor, offering a cost-effective and targeted solution for maintaining up-to-date 3D models in rapidly evolving military scenarios.
- Abstract(参考訳): シミュレーションと訓練の目的で、軍事組織は広範囲のイメージングと3Dスキャンを通じて高解像度の3D仮想環境の開発に多大な投資をしている。
しかし、戦場条件のダイナミックな性質は、時間とコストの双方で、時間とともにオブジェクトが出現または消失する可能性がある。
そこで我々は,3Dガウススプラッティング(3DGS)などの既存の3D再構成を,新たに取得した画像の小さなセットで効率的に更新するインクリメンタル・ダイナミック・アップデート(IDU)パイプラインを導入する。
我々のアプローチは、カメラのポーズ推定から始まり、新しい画像を既存の3Dモデルに合わせる。
そして、3D生成AIモデルを使用して、新しい要素の高品質な3Dアセットを生成し、既存の3Dモデルにシームレスに統合する。
IDUパイプラインには、オブジェクトの識別と配置において高い精度を確保するために、人間のガイダンスが組み込まれている。
実験の結果,提案したIDUパイプラインは更新時間と労力を大幅に削減し,急速に発展する軍事シナリオにおいて,最新の3Dモデルを維持するための費用対効果と目標とするソリューションを提供することを確認した。
関連論文リスト
- DGS-LRM: Real-Time Deformable 3D Gaussian Reconstruction From Monocular Videos [52.46386528202226]
Deformable Gaussian Splats Large Reconstruction Model (DGS-LRM)を紹介する。
動的シーンのモノクロポーズビデオから変形可能な3Dガウススプラットを予測する最初のフィードフォワード法である。
最先端のモノクロビデオ3D追跡手法と同等の性能を発揮する。
論文 参考訳(メタデータ) (2025-06-11T17:59:58Z) - TripoSG: High-Fidelity 3D Shape Synthesis using Large-Scale Rectified Flow Models [69.0220314849478]
TripoSGは、入力画像に正確に対応した高忠実度3Dメッシュを生成することができる新しい合理化形状拡散パラダイムである。
結果として得られた3D形状は、高解像度の能力によって細部が強化され、入力画像に異常な忠実さを示す。
3Dジェネレーションの分野における進歩と革新を促進するため、我々はモデルを一般公開する。
論文 参考訳(メタデータ) (2025-02-10T16:07:54Z) - ComboVerse: Compositional 3D Assets Creation Using Spatially-Aware Diffusion Guidance [76.7746870349809]
複雑な構成で高品質な3Dアセットを生成する3D生成フレームワークであるComboVerseについて,複数のモデルを組み合わせることを学習して紹介する。
提案手法は,標準スコア蒸留法と比較して,物体の空間的アライメントを重視している。
論文 参考訳(メタデータ) (2024-03-19T03:39:43Z) - 3D-SceneDreamer: Text-Driven 3D-Consistent Scene Generation [51.64796781728106]
本稿では,2次元拡散モデル以前の自然画像と,現在のシーンのグローバルな3次元情報を利用して,高品質で新しいコンテンツを合成する生成的精細化ネットワークを提案する。
提案手法は,視覚的品質と3次元の整合性を改善した多種多様なシーン生成と任意のカメラトラジェクトリをサポートする。
論文 参考訳(メタデータ) (2024-03-14T14:31:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。