論文の概要: Procedural Generation of 3D Maps with Snappable Meshes
- arxiv url: http://arxiv.org/abs/2108.00056v1
- Date: Fri, 30 Jul 2021 19:43:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-03 15:04:26.207733
- Title: Procedural Generation of 3D Maps with Snappable Meshes
- Title(参考訳): スナップブルメッシュを用いた3次元地図の手続き生成
- Authors: Rafael C. e Silva, Nuno Fachada, Diogo de Andrade, N\'elio C\'odices
- Abstract要約: 本稿では,デザイナが指定した視覚的制約に基づいて,一組のプレメイドメッシュを用いて3Dマップを手続き的に生成する手法を提案する。
提案したアプローチはサイズとレイアウトの制限を回避し、デザイナが生成したマップのルックアンドフィールを制御し、与えられたマップのナビゲート性に対する即時フィードバックを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper we present a technique for procedurally generating 3D maps
using a set of premade meshes which snap together based on designer-specified
visual constraints. The proposed approach avoids size and layout limitations,
offering the designer control over the look and feel of the generated maps, as
well as immediate feedback on a given map's navigability. A prototype
implementation of the method, developed in the Unity game engine, is discussed,
and a number of case studies are analyzed. These include a multiplayer game
where the method was used, together with a number of illustrative examples
which highlight various parameterizations and generation methods. We argue that
the technique is designer-friendly and can be used as a map composition method
and/or as a prototyping system in 3D level design, opening the door for quality
map and level creation in a fraction of the time of a fully human-based
approach.
- Abstract(参考訳): 本稿では,デザイナーが指定した視覚制約に基づいて一組のメッシュを用いて3dマップを手続き的に生成する手法を提案する。
提案されたアプローチはサイズやレイアウトの制限を回避し、生成したマップのルックアンドフィールをデザイナコントロールし、マップのナビゲーション可能性に関する即時フィードバックを提供する。
ゲームエンジンUnityで開発された手法のプロトタイプ実装について論じ、いくつかのケーススタディを分析した。
これには、メソッドが使われたマルチプレイヤーゲームと、様々なパラメータ化と生成メソッドを強調する多くの例が含まれている。
我々は、この手法はデザイナーフレンドリーであり、3dレベルの設計における地図合成手法やプロトタイピングシステムとして、品質マップの扉を開けたり、完全な人間ベースのアプローチの時間の一部でレベル作成を行うことができると主張している。
関連論文リスト
- Neural Semantic Surface Maps [52.61017226479506]
本稿では,2つの属とゼロの形状の地図を自動計算する手法を提案する。
提案手法は,手動のアノテーションや3Dトレーニングデータ要求を排除し,意味的表面-表面マップを生成する。
論文 参考訳(メタデータ) (2023-09-09T16:21:56Z) - TMO: Textured Mesh Acquisition of Objects with a Mobile Device by using
Differentiable Rendering [54.35405028643051]
スマートフォン1台でテクスチャ化されたメッシュを野生で取得するパイプラインを新たに提案する。
提案手法ではまず,RGBD支援構造を動きから導入し,フィルタした深度マップを作成できる。
我々は,高品質なメッシュを実現するニューラル暗黙表面再構成法を採用する。
論文 参考訳(メタデータ) (2023-03-27T10:07:52Z) - 3D-LatentMapper: View Agnostic Single-View Reconstruction of 3D Shapes [0.0]
視覚変換器(ViT)の中間潜時空間と共同画像テキスト表現モデル(CLIP)を高速かつ効率的なシングルビュー再構成(SVR)に活用する新しいフレームワークを提案する。
本研究ではShapeNetV2データセットを用いてSOTA法との比較実験を行い,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2022-12-05T11:45:26Z) - Single-view 3D Mesh Reconstruction for Seen and Unseen Categories [69.29406107513621]
シングルビュー3Dメッシュ再構成は、シングルビューRGB画像から3D形状を復元することを目的とした、基本的なコンピュータビジョンタスクである。
本稿では,一視点3Dメッシュ再構成に取り組み,未知のカテゴリのモデル一般化について検討する。
我々は、再構築におけるカテゴリ境界を断ち切るために、エンドツーエンドの2段階ネットワークであるGenMeshを提案する。
論文 参考訳(メタデータ) (2022-08-04T14:13:35Z) - End-to-End Learning of Multi-category 3D Pose and Shape Estimation [128.881857704338]
本稿では,画像から2次元キーポイントを同時に検出し,それらを3次元に引き上げるエンド・ツー・エンド手法を提案する。
提案手法は2次元キーポイントアノテーションからのみ2次元検出と3次元リフトを学習する。
画像から3D学習へのエンドツーエンド化に加えて,1つのニューラルネットワークを用いて複数のカテゴリからのオブジェクトも処理する。
論文 参考訳(メタデータ) (2021-12-19T17:10:40Z) - Deep Image Matting with Flexible Guidance Input [16.651948566049846]
本稿では,ユーザヒントとしてFlexible Guidance Input を用いるマッチング手法を提案する。
提案手法は,既存のトリマップベースおよびトリマップフリー手法と比較して,最先端の結果が得られる。
論文 参考訳(メタデータ) (2021-10-21T04:59:27Z) - 3DSNet: Unsupervised Shape-to-Shape 3D Style Transfer [66.48720190245616]
本稿では,3次元オブジェクト間のスタイル伝達のための学習に基づくアプローチを提案する。
提案手法は点雲とメッシュの両方で新しい3次元形状を合成することができる。
選択したドメインのマルチモーダルなスタイル分布を暗黙的に学習するために,我々の手法を拡張した。
論文 参考訳(メタデータ) (2020-11-26T16:59:12Z) - Improved Modeling of 3D Shapes with Multi-view Depth Maps [48.8309897766904]
CNNを用いて3次元形状をモデル化するための汎用フレームワークを提案する。
オブジェクトの1つの深度画像だけで、3Dオブジェクトの高密度な多視点深度マップ表現を出力できる。
論文 参考訳(メタデータ) (2020-09-07T17:58:27Z) - General 3D Room Layout from a Single View by Render-and-Compare [36.94817376590415]
一つの視点から部屋の3次元レイアウトを再構築する新しい手法を提案する。
データセットはScanNetの293の画像で構成されており、正確な3Dレイアウトで注釈を付けました。
論文 参考訳(メタデータ) (2020-01-07T16:14:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。