論文の概要: Projective Urban Texturing
- arxiv url: http://arxiv.org/abs/2201.10938v1
- Date: Tue, 25 Jan 2022 14:56:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-27 14:16:08.485554
- Title: Projective Urban Texturing
- Title(参考訳): 都市テクスチャの計画
- Authors: Yiangos Georgiou and Melinos Averkiou and Tom Kelly and Evangelos
Kalogerakis
- Abstract要約: 没入型都市環境における3次元都市メッシュのテクスチャ自動生成手法を提案する。
Projective Urban Texturing (PUT)は、実際のパノラマ画像から見えない都市メッシュへのテクスチャスタイルを再ターゲットする。
PUTは、未ペア画像からテクスチャへの変換用に設計されたニューラルアーキテクチャの、対照的で敵対的なトレーニングに依存している。
- 参考スコア(独自算出の注目度): 8.349665441428925
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a method for automatic generation of textures for 3D city
meshes in immersive urban environments. Many recent pipelines capture or
synthesize large quantities of city geometry using scanners or procedural
modeling pipelines. Such geometry is intricate and realistic, however the
generation of photo-realistic textures for such large scenes remains a problem.
We propose to generate textures for input target 3D meshes driven by the
textural style present in readily available datasets of panoramic photos
capturing urban environments. Re-targeting such 2D datasets to 3D geometry is
challenging because the underlying shape, size, and layout of the urban
structures in the photos do not correspond to the ones in the target meshes.
Photos also often have objects (e.g., trees, vehicles) that may not even be
present in the target geometry.To address these issues we present a method,
called Projective Urban Texturing (PUT), which re-targets textural style from
real-world panoramic images to unseen urban meshes. PUT relies on contrastive
and adversarial training of a neural architecture designed for unpaired
image-to-texture translation. The generated textures are stored in a texture
atlas applied to the target 3D mesh geometry. To promote texture consistency,
PUT employs an iterative procedure in which texture synthesis is conditioned on
previously generated, adjacent textures. We demonstrate both quantitative and
qualitative evaluation of the generated textures.
- Abstract(参考訳): 本稿では,没入型都市環境における3次元都市メッシュのテクスチャ自動生成手法を提案する。
近年のパイプラインの多くは、スキャナーや手続き的モデリングパイプラインを使用して大量の都市形状をキャプチャーまたは合成している。
このような幾何学は複雑で現実的なものであるが、そのような大きなシーンのフォトリアリスティックなテクスチャの生成は依然として問題である。
本研究では,都市環境を捉えたパノラマ画像の簡易データセットに存在するテクスチャスタイルによる入力対象3dメッシュのテクスチャ生成を提案する。
このような2Dデータセットを3D幾何学に再ターゲットすることは、写真中の都市構造の形状、大きさ、レイアウトがターゲットメッシュのものと一致しないため、難しい。
写真には対象の幾何学に存在すらしない物体(例えば木や乗り物)もしばしばあり、これらの問題に対処するために、実世界のパノラマ画像から見えない都市メッシュへテキストスタイルを再ターゲットする投影的都市テクストリング(put)と呼ばれる手法を提案する。
PUTは、未ペア画像からテクスチャへの変換用に設計されたニューラルアーキテクチャの、対照的で敵対的なトレーニングに依存している。
生成されたテクスチャは、ターゲット3Dメッシュ形状に適用されたテクスチャアトラスに記憶される。
テクスチャ一貫性を促進するため、putは、予め生成された隣接するテクスチャにテクスチャ合成を条件付ける反復的な手順を採用している。
生成したテクスチャの定量的および定性的な評価を行った。
関連論文リスト
- Sat2Scene: 3D Urban Scene Generation from Satellite Images with Diffusion [77.34078223594686]
本稿では,3次元スパース表現に拡散モデルを導入し,それらをニューラルレンダリング技術と組み合わせることで,直接3次元シーン生成のための新しいアーキテクチャを提案する。
具体的には、まず3次元拡散モデルを用いて、所定の幾何学の点レベルのテクスチャ色を生成し、次にフィードフォワード方式でシーン表現に変換する。
2つの都市規模データセットを用いた実験により,衛星画像から写真リアルなストリートビュー画像シーケンスとクロスビュー都市シーンを生成する能力を示した。
論文 参考訳(メタデータ) (2024-01-19T16:15:37Z) - TextureDreamer: Image-guided Texture Synthesis through Geometry-aware
Diffusion [64.49276500129092]
TextureDreamerは画像誘導型テクスチャ合成法である。
少数の入力画像から任意のカテゴリでターゲットの3D形状に光沢のあるテクスチャを転送することができる。
論文 参考訳(メタデータ) (2024-01-17T18:55:49Z) - GeoScaler: Geometry and Rendering-Aware Downsampling of 3D Mesh Textures [0.06990493129893112]
高解像度テクスチャマップは、3Dメッシュで現実世界のオブジェクトを正確に表現するために必要である。
GeoScalerは幾何学的手がかりを取り入れつつ、3Dメッシュのテクスチャマップをダウンサンプリングする方法である。
また,GeoScalerが生成したテクスチャは,従来のダウンサンプリング手法に比べて,画質のよいレンダリング画像を提供することを示した。
論文 参考訳(メタデータ) (2023-11-28T07:55:25Z) - Generating Texture for 3D Human Avatar from a Single Image using
Sampling and Refinement Networks [8.659903550327442]
幾何学情報を組み込んだ3次元アバターのテクスチャ合成法を提案する。
サンプルネットワークは、ソース画像の隠蔽領域を埋め、テクスチャをターゲット3Dメッシュの表面と整列させる。
与えられた画像の鮮明な詳細を維持するため、サンプリングされたテクスチャと精製されたテクスチャを混合して最終テクスチャマップを生成する。
論文 参考訳(メタデータ) (2023-05-01T16:44:02Z) - Mesh2Tex: Generating Mesh Textures from Image Queries [45.32242590651395]
特に、実際の物体の画像からのテクスチャ化されたステージテクスチャは、実際の画像観察と一致する。
本稿では,非相関な3次元オブジェクト形状のコレクションからオブジェクト形状を学習するMesh2Texを紹介する。
論文 参考訳(メタデータ) (2023-04-12T13:58:25Z) - TEXTure: Text-Guided Texturing of 3D Shapes [71.13116133846084]
TEXTureは,テクスチャのテクスチャのテクスチャの編集,編集,転送を行う新しい方法である。
表面テクスチャを明示することなくシームレスな3次元テクスチャを生成する3次元マップ分割プロセスを定義する。
論文 参考訳(メタデータ) (2023-02-03T13:18:45Z) - AUV-Net: Learning Aligned UV Maps for Texture Transfer and Synthesis [78.17671694498185]
AUV-Netは,3次元表面を2次元に整列したUV空間に埋め込むことを学習する。
結果として、テクスチャはオブジェクト間で整列し、画像の生成モデルによって容易に合成できる。
学習されたUVマッピングとアライメントテクスチャ表現は、テクスチャ転送、テクスチャ合成、テクスチャ化された単一ビュー3D再構成など、さまざまなアプリケーションを可能にする。
論文 参考訳(メタデータ) (2022-04-06T21:39:24Z) - OSTeC: One-Shot Texture Completion [86.23018402732748]
ワンショット3D顔テクスチャ補完のための教師なしアプローチを提案する。
提案手法では,2次元フェースジェネレータで回転画像を再構成することにより,入力画像を3次元で回転させ,見えない領域を埋め込む。
完成したテクスチャーをジェネレーターに投影することで、ターゲットイメージを先取りします。
論文 参考訳(メタデータ) (2020-12-30T23:53:26Z) - Implicit Feature Networks for Texture Completion from Partial 3D Data [56.93289686162015]
我々はIF-Netsを人間と任意の物体の部分的テクスチャスキャンからテクスチャ補完に一般化する。
本モデルでは, 欠損したテクスチャ部品を, 完成した形状でインペイントすることに成功している。
論文 参考訳(メタデータ) (2020-09-20T15:48:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。