論文の概要: Procedural Generation of 3D Maps with Snappable Meshes
- arxiv url: http://arxiv.org/abs/2108.00056v1
- Date: Fri, 30 Jul 2021 19:43:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-03 15:04:26.207733
- Title: Procedural Generation of 3D Maps with Snappable Meshes
- Title(参考訳): スナップブルメッシュを用いた3次元地図の手続き生成
- Authors: Rafael C. e Silva, Nuno Fachada, Diogo de Andrade, N\'elio C\'odices
- Abstract要約: 本稿では,デザイナが指定した視覚的制約に基づいて,一組のプレメイドメッシュを用いて3Dマップを手続き的に生成する手法を提案する。
提案したアプローチはサイズとレイアウトの制限を回避し、デザイナが生成したマップのルックアンドフィールを制御し、与えられたマップのナビゲート性に対する即時フィードバックを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper we present a technique for procedurally generating 3D maps
using a set of premade meshes which snap together based on designer-specified
visual constraints. The proposed approach avoids size and layout limitations,
offering the designer control over the look and feel of the generated maps, as
well as immediate feedback on a given map's navigability. A prototype
implementation of the method, developed in the Unity game engine, is discussed,
and a number of case studies are analyzed. These include a multiplayer game
where the method was used, together with a number of illustrative examples
which highlight various parameterizations and generation methods. We argue that
the technique is designer-friendly and can be used as a map composition method
and/or as a prototyping system in 3D level design, opening the door for quality
map and level creation in a fraction of the time of a fully human-based
approach.
- Abstract(参考訳): 本稿では,デザイナーが指定した視覚制約に基づいて一組のメッシュを用いて3dマップを手続き的に生成する手法を提案する。
提案されたアプローチはサイズやレイアウトの制限を回避し、生成したマップのルックアンドフィールをデザイナコントロールし、マップのナビゲーション可能性に関する即時フィードバックを提供する。
ゲームエンジンUnityで開発された手法のプロトタイプ実装について論じ、いくつかのケーススタディを分析した。
これには、メソッドが使われたマルチプレイヤーゲームと、様々なパラメータ化と生成メソッドを強調する多くの例が含まれている。
我々は、この手法はデザイナーフレンドリーであり、3dレベルの設計における地図合成手法やプロトタイピングシステムとして、品質マップの扉を開けたり、完全な人間ベースのアプローチの時間の一部でレベル作成を行うことができると主張している。
関連論文リスト
- Zero-Shot Novel View and Depth Synthesis with Multi-View Geometric Diffusion [27.836518920611557]
本稿では,新しい視点から画像や深度マップを直接生成できる拡散型アーキテクチャMVGDを紹介する。
このモデルは、公開データセットから6000万以上のマルチビューサンプルを収集した上でトレーニングします。
複数の新しいビュー合成ベンチマーク、マルチビューステレオおよびビデオ深度推定における最先端結果について報告する。
論文 参考訳(メタデータ) (2025-01-30T23:43:06Z) - DualPM: Dual Posed-Canonical Point Maps for 3D Shape and Pose Reconstruction [67.13370009386635]
そこで,Dual Point Maps (DualPM) では,同じ画像から一対の点マップを抽出し,一対の点マップをオブジェクト上の3D位置と関連付け,一対の点マップを静止時の標準バージョンに関連付ける。
3次元再構成と3次元ポーズ推定がDualPMの予測に比例することを示した。
論文 参考訳(メタデータ) (2024-12-05T18:59:48Z) - SceneCraft: Layout-Guided 3D Scene Generation [29.713491313796084]
シーンクラフト(SceneCraft)は、テキスト記述や空間的レイアウトの好みに則った、室内の詳細なシーンを生成する新しい方法である。
本手法は,多様なテクスチャ,一貫した幾何,現実的な視覚的品質を有する複雑な屋内シーン生成において,既存のアプローチを著しく上回っている。
論文 参考訳(メタデータ) (2024-10-11T17:59:58Z) - Sketch2Scene: Automatic Generation of Interactive 3D Game Scenes from User's Casual Sketches [50.51643519253066]
3Dコンテンツ生成は、ビデオゲーム、映画制作、バーチャルおよび拡張現実など、多くのコンピュータグラフィックスアプリケーションの中心にある。
本稿では,インタラクティブでプレイ可能な3Dゲームシーンを自動的に生成するための,新しいディープラーニングベースのアプローチを提案する。
論文 参考訳(メタデータ) (2024-08-08T16:27:37Z) - Invisible Stitch: Generating Smooth 3D Scenes with Depth Inpainting [75.7154104065613]
本稿では,3次元融合過程を学習するために,教師の蒸留と自己学習によって訓練された新しい深度補完モデルを提案する。
また,地上の真理幾何に基づくシーン生成手法のベンチマーク手法も導入した。
論文 参考訳(メタデータ) (2024-04-30T17:59:40Z) - Neural Semantic Surface Maps [52.61017226479506]
本稿では,2つの属とゼロの形状の地図を自動計算する手法を提案する。
提案手法は,手動のアノテーションや3Dトレーニングデータ要求を排除し,意味的表面-表面マップを生成する。
論文 参考訳(メタデータ) (2023-09-09T16:21:56Z) - 3D-LatentMapper: View Agnostic Single-View Reconstruction of 3D Shapes [0.0]
視覚変換器(ViT)の中間潜時空間と共同画像テキスト表現モデル(CLIP)を高速かつ効率的なシングルビュー再構成(SVR)に活用する新しいフレームワークを提案する。
本研究ではShapeNetV2データセットを用いてSOTA法との比較実験を行い,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2022-12-05T11:45:26Z) - Single-view 3D Mesh Reconstruction for Seen and Unseen Categories [69.29406107513621]
シングルビュー3Dメッシュ再構成は、シングルビューRGB画像から3D形状を復元することを目的とした、基本的なコンピュータビジョンタスクである。
本稿では,一視点3Dメッシュ再構成に取り組み,未知のカテゴリのモデル一般化について検討する。
我々は、再構築におけるカテゴリ境界を断ち切るために、エンドツーエンドの2段階ネットワークであるGenMeshを提案する。
論文 参考訳(メタデータ) (2022-08-04T14:13:35Z) - Improved Modeling of 3D Shapes with Multi-view Depth Maps [48.8309897766904]
CNNを用いて3次元形状をモデル化するための汎用フレームワークを提案する。
オブジェクトの1つの深度画像だけで、3Dオブジェクトの高密度な多視点深度マップ表現を出力できる。
論文 参考訳(メタデータ) (2020-09-07T17:58:27Z) - General 3D Room Layout from a Single View by Render-and-Compare [36.94817376590415]
一つの視点から部屋の3次元レイアウトを再構築する新しい手法を提案する。
データセットはScanNetの293の画像で構成されており、正確な3Dレイアウトで注釈を付けました。
論文 参考訳(メタデータ) (2020-01-07T16:14:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。