論文の概要: Generating real-time detailed ground visualisations from sparse aerial point clouds
- arxiv url: http://arxiv.org/abs/2507.18664v1
- Date: Thu, 24 Jul 2025 02:34:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-28 16:16:48.694066
- Title: Generating real-time detailed ground visualisations from sparse aerial point clouds
- Title(参考訳): 希少な空点雲からのリアルタイム詳細地盤可視化の生成
- Authors: Aidan Murray, Eddie Waite, Caleb Ross, Scarlet Mitchell, Alexander Bradley, Joanna Jamrozy, Kenny Mitchell,
- Abstract要約: 目の高さを観察したり、熟練アーティストに駆り出されたりするために、視覚的真理で現実的な広義の屋外3Dコンテンツを構築する。
提案手法では,実世界の車両をアニメーション車両で自動増幅するプロセスを定義した。
- 参考スコア(独自算出の注目度): 37.71974750937175
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Building realistic wide scale outdoor 3D content with sufficient visual quality to observe at walking eye level or from driven vehicles is often carried out by large teams of artists skilled in modelling, texturing, material shading and lighting, which typically leads to both prohibitive costs and reduced accuracy honoring the variety of real world ground truth landscapes. In our proposed method, we define a process to automatically amplify real-world scanned data and render real-time in animated 3D to explore at close range with high quality for training, simulation, video game and visualisation applications.
- Abstract(参考訳): ウォーキングアイレベルや駆動車から観察するのに十分な視覚的品質を備えた、現実的な広義の屋外3Dコンテンツの構築は、モデリング、テクスチャリング、素材シェーディング、照明に熟練した大規模なアーティストチームによって行われることが多い。
提案手法では,実世界のスキャンデータを自動的に増幅し,アニメーション3Dでリアルタイムにレンダリングすることで,トレーニング,シミュレーション,ビデオゲーム,可視化アプリケーションなどの高品質な領域を探索するプロセスを定義した。
関連論文リスト
- R3D2: Realistic 3D Asset Insertion via Diffusion for Autonomous Driving Simulation [78.26308457952636]
本稿では,自律運転シミュレーションの限界を克服する軽量な1ステップ拡散モデルであるR3D2を紹介する。
シャドウや一貫した照明など、妥当なレンダリング効果を生み出すことで、既存のシーンに完全な3Dアセットを現実的に挿入することができる。
R3D2は挿入されたアセットの現実性を大幅に向上させ,テキストから3Dへのアセット挿入やクロスシーン/データセットオブジェクト転送といったユースケースを可能にした。
論文 参考訳(メタデータ) (2025-06-09T14:50:19Z) - Physics Driven Image Simulation from Commercial Satellite Imagery [1.7003486998041022]
物理駆動画像シミュレーションは、典型的なレンダリングパイプラインで得られる以上の現実的なイメージのモデリングと作成を可能にする。
本研究の目的は、衛星画像を用いて、シーン形状をモデル化し、材料推定を駆動し、ダイナミックな要素でシーンをポップアップさせる、特定の領域のシミュレーションのための物理的に現実的なシーンを自動的に生成することである。
論文 参考訳(メタデータ) (2025-04-21T18:38:00Z) - Automating 3D Dataset Generation with Neural Radiance Fields [0.0]
パフォーマンス検出モデルのトレーニングには、多様な、正確に注釈付けされた、大規模なデータセットが必要である。
任意のオブジェクトに対する3Dデータセットの自動生成のためのパイプラインを提案する。
私たちのパイプラインは速く、使いやすく、高度な自動化があります。
論文 参考訳(メタデータ) (2025-03-20T10:01:32Z) - UrbanCAD: Towards Highly Controllable and Photorealistic 3D Vehicles for Urban Scene Simulation [46.47972242593905]
UrbanCADは、1つの都市画像から高度に制御可能で光リアルな3D車両のデジタルツインを生成するフレームワークである。
これにより、車両のリアルな360度レンダリング、背景挿入、物質移動、リライト、部品操作が可能になる。
論文 参考訳(メタデータ) (2024-11-28T17:51:08Z) - Neural Rendering based Urban Scene Reconstruction for Autonomous Driving [8.007494499012624]
ニューラルな暗黙表面と放射場を組み合わせたフレームワークを用いたマルチモーダル3次元シーン再構成を提案する。
Dense 3Dリコンストラクションは、自動アノテーションバリデーションを含む自動走行に多くの応用がある。
我々は,挑戦的な自動車シーンの質的,定量的な結果を示す。
論文 参考訳(メタデータ) (2024-02-09T23:20:23Z) - EvaSurf: Efficient View-Aware Implicit Textured Surface Reconstruction [53.28220984270622]
3次元再構成法はリアルタイムに3次元整合性のある高忠実度結果を生成する。
提案手法は,合成と実世界の両方のデータセット上で,高品質な外観と正確なメッシュを再構築することができる。
我々の方法は1つのGPUを使ってたった1~2時間でトレーニングでき、40FPS(Frames per second)以上のモバイルデバイス上で実行することができる。
論文 参考訳(メタデータ) (2023-11-16T11:30:56Z) - VR-NeRF: High-Fidelity Virtualized Walkable Spaces [55.51127858816994]
本稿では,高忠実度キャプチャ,モデル再構成,リアルタイムレンダリングのためのエンドツーエンドシステムを提案する。
論文 参考訳(メタデータ) (2023-11-05T02:03:14Z) - 3D Gaussian Splatting for Real-Time Radiance Field Rendering [4.320393382724066]
競争力のあるトレーニング時間を維持しながら、最先端の視覚的品質を達成するための3つの重要な要素を紹介します。
いくつかの確立したデータセット上で、最先端の視覚的品質とリアルタイムレンダリングを実証する。
論文 参考訳(メタデータ) (2023-08-08T06:37:06Z) - Self-supervised novel 2D view synthesis of large-scale scenes with
efficient multi-scale voxel carving [77.07589573960436]
実シーンの新たなビューを生成するために,効率的なマルチスケールのボクセル彫刻手法を提案する。
我々の最終的な高解像度出力は、ボクセル彫刻モジュールによって自動的に生成されるデータに基づいて効率よく自己学習される。
実環境における複雑で大規模なシーンにおける本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-06-26T13:57:05Z) - BungeeNeRF: Progressive Neural Radiance Field for Extreme Multi-scale
Scene Rendering [145.95688637309746]
本稿では,大々的に変化するスケールにわたる詳細レンダリングを実現するプログレッシブ・ニューラル放射場である BungeeNeRF を紹介する。
多様なマルチスケールシーンをモデル化する上での BungeeNeRF の優位性を示す。
論文 参考訳(メタデータ) (2021-12-10T13:16:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。