論文の概要: Physics Driven Image Simulation from Commercial Satellite Imagery
- arxiv url: http://arxiv.org/abs/2504.15378v1
- Date: Mon, 21 Apr 2025 18:38:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-01 01:48:41.799171
- Title: Physics Driven Image Simulation from Commercial Satellite Imagery
- Title(参考訳): 商用衛星画像からの物理駆動画像シミュレーション
- Authors: Scott Sorensen, Wayne Treible, Robert Wagner, Andrew D. Gilliam, Todd Rovito, Joseph L. Mundy,
- Abstract要約: 物理駆動画像シミュレーションは、典型的なレンダリングパイプラインで得られる以上の現実的なイメージのモデリングと作成を可能にする。
本研究の目的は、衛星画像を用いて、シーン形状をモデル化し、材料推定を駆動し、ダイナミックな要素でシーンをポップアップさせる、特定の領域のシミュレーションのための物理的に現実的なシーンを自動的に生成することである。
- 参考スコア(独自算出の注目度): 1.7003486998041022
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Physics driven image simulation allows for the modeling and creation of realistic imagery beyond what is afforded by typical rendering pipelines. We aim to automatically generate a physically realistic scene for simulation of a given region using satellite imagery to model the scene geometry, drive material estimates, and populate the scene with dynamic elements. We present automated techniques to utilize satellite imagery throughout the simulated scene to expedite scene construction and decrease manual overhead. Our technique does not use lidar, enabling simulations that could not be constructed previously. To develop a 3D scene, we model the various components of the real location, addressing the terrain, modelling man-made structures, and populating the scene with smaller elements such as vegetation and vehicles. To create the scene we begin with a Digital Surface Model, which serves as the basis for scene geometry, and allows us to reason about the real location in a common 3D frame of reference. These simulated scenes can provide increased fidelity with less manual intervention for novel locations on earth, and can facilitate algorithm development, and processing pipelines for imagery ranging from UV to LWIR $(200nm-20\mu m)$.
- Abstract(参考訳): 物理駆動画像シミュレーションは、典型的なレンダリングパイプラインで得られる以上の現実的なイメージのモデリングと作成を可能にする。
本研究の目的は、衛星画像を用いて、シーン形状をモデル化し、材料推定を駆動し、ダイナミックな要素でシーンをポップアップさせる、特定の領域のシミュレーションのための物理的に現実的なシーンを自動的に生成することである。
本研究では,シミュレートされたシーン全体を通して衛星画像を利用してシーン構築を高速化し,手動によるオーバーヘッドを低減させる自動手法を提案する。
本手法ではライダーは使用せず,従来構築できなかったシミュレーションを可能にする。
3Dシーンを開発するために、実際の位置の様々な構成要素をモデル化し、地形をモデル化し、人工構造物をモデル化し、植生や車両などの小さな要素でシーンを人口化する。
シーンを作成するには、シーン幾何学の基礎となるデジタルサーフェスモデルから始め、一般的な3次元参照フレーム内の実際の位置を推論する。
これらのシミュレートされたシーンは、地球上の新しい場所への手作業による介入を減らし、UVからLWIR(200nm-20\mu m)$)までの画像のためのパイプライン処理やアルゴリズム開発を促進することができる。
関連論文リスト
- Stag-1: Towards Realistic 4D Driving Simulation with Video Generation Model [83.31688383891871]
本稿では,現実世界のシーンを再現するために,DrivinG(Stag-1)モデルのための空間-テンポラル・シミュレートを提案する。
Stag-1は、自動運転車のサラウンドビューデータを使用して、連続した4Dポイントのクラウドシーンを構築する。
空間的時間的関係を分離し、コヒーレントな運転ビデオを生成する。
論文 参考訳(メタデータ) (2024-12-06T18:59:56Z) - UrbanCAD: Towards Highly Controllable and Photorealistic 3D Vehicles for Urban Scene Simulation [46.47972242593905]
UrbanCADは、1つの都市画像から高度に制御可能で光リアルな3D車両のデジタルツインを生成するフレームワークである。
これにより、車両のリアルな360度レンダリング、背景挿入、物質移動、リライト、部品操作が可能になる。
論文 参考訳(メタデータ) (2024-11-28T17:51:08Z) - URDFormer: A Pipeline for Constructing Articulated Simulation Environments from Real-World Images [39.0780707100513]
そこで本研究では,実世界の画像からキネマティック構造と動的構造を合成したシミュレーションシーンを生成するエンドツーエンドパイプラインを提案する。
そこで本研究は,大規模シミュレーション環境のためのパイプラインと,ロバストなロボット制御ポリシをトレーニングするための統合システムの両方を提供する。
論文 参考訳(メタデータ) (2024-05-19T20:01:29Z) - Urban Scene Diffusion through Semantic Occupancy Map [49.20779809250597]
UrbanDiffusionは、Bird's-Eye View (BEV)マップに条件付き3次元拡散モデルである。
我々のモデルは,潜在空間内のシーンレベルの構造の分布を学習する。
実世界の運転データセットをトレーニングした後、我々のモデルは多様な都市シーンを生成することができる。
論文 参考訳(メタデータ) (2024-03-18T11:54:35Z) - Sat2Scene: 3D Urban Scene Generation from Satellite Images with Diffusion [77.34078223594686]
本稿では,3次元スパース表現に拡散モデルを導入し,それらをニューラルレンダリング技術と組み合わせることで,直接3次元シーン生成のための新しいアーキテクチャを提案する。
具体的には、まず3次元拡散モデルを用いて、所定の幾何学の点レベルのテクスチャ色を生成し、次にフィードフォワード方式でシーン表現に変換する。
2つの都市規模データセットを用いた実験により,衛星画像から写真リアルなストリートビュー画像シーケンスとクロスビュー都市シーンを生成する能力を示した。
論文 参考訳(メタデータ) (2024-01-19T16:15:37Z) - NeuralField-LDM: Scene Generation with Hierarchical Latent Diffusion
Models [85.20004959780132]
複雑な3D環境を合成できる生成モデルであるNeuralField-LDMを紹介する。
NeuralField-LDMは,条件付きシーン生成,シーンインペインティング,シーンスタイル操作など,さまざまな3Dコンテンツ作成アプリケーションに利用できることを示す。
論文 参考訳(メタデータ) (2023-04-19T16:13:21Z) - GeoSim: Photorealistic Image Simulation with Geometry-Aware Composition [81.24107630746508]
GeoSimは、新しい都市の運転シーンを合成するジオメトリ認識の画像合成プロセスです。
まず、センサーデータからリアルな形状と外観の両方を備えた多様な3Dオブジェクトのバンクを構築します。
得られた合成画像は、フォトリアリズム、トラフィック認識、幾何学的一貫性があり、画像シミュレーションが複雑なユースケースにスケールできる。
論文 参考訳(メタデータ) (2021-01-16T23:00:33Z) - Photorealism in Driving Simulations: Blending Generative Adversarial
Image Synthesis with Rendering [0.0]
我々は、運転シミュレーションの視覚的忠実度を改善するために、ハイブリッドな生成型ニューラルネットワークパイプラインを導入する。
テクスチャのない単純なオブジェクトモデルからなる3次元シーンから2次元のセマンティック画像を生成する。
これらのセマンティックイメージは、現実の運転シーンで訓練された最先端のジェネレーティブ・アドリア・ネットワーク(GAN)を用いて、フォトリアリスティックなRGBイメージに変換される。
論文 参考訳(メタデータ) (2020-07-31T03:25:17Z) - LiDARsim: Realistic LiDAR Simulation by Leveraging the Real World [84.57894492587053]
物理に基づくシミュレーションと学習に基づくシミュレーションの両方のパワーをキャプチャする新しいシミュレータを開発した。
まず3Dシーン上でレイキャストを行い、次にディープニューラルネットワークを用いて物理シミュレーションから偏差を生成する。
本稿では,LiDARsimが長距離イベントにおける認識アルゴリズムのテストに有用であること,および安全クリティカルシナリオにおけるエンドツーエンドのクローズループ評価について紹介する。
論文 参考訳(メタデータ) (2020-06-16T17:44:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。