論文の概要: Vastextures: Vast repository of textures and PBR materials extracted from real-world images using unsupervised methods
- arxiv url: http://arxiv.org/abs/2406.17146v1
- Date: Mon, 24 Jun 2024 21:36:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-26 18:11:29.129471
- Title: Vastextures: Vast repository of textures and PBR materials extracted from real-world images using unsupervised methods
- Title(参考訳): Vastextures: 教師なし手法を用いた実世界の画像から抽出したテクスチャとPBR材料のVastレポジトリ
- Authors: Sagi Eppel,
- Abstract要約: Vastexturesは50,000のテクスチャとPBR素材のリポジトリで、教師なしのプロセスを用いて現実世界の画像から抽出される。
天然画像から採取した2次元テクスチャと、これらのテクスチャから生成されたSVBRDF/PBR材料からなる。
- 参考スコア(独自算出の注目度): 0.6993026261767287
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Vastextures is a vast repository of 500,000 textures and PBR materials extracted from real-world images using an unsupervised process. The extracted materials and textures are extremely diverse and cover a vast range of real-world patterns, but at the same time less refined compared to existing repositories. The repository is composed of 2D textures cropped from natural images and SVBRDF/PBR materials generated from these textures. Textures and PBR materials are essential for CGI. Existing materials repositories focus on games, animation, and arts, that demand a limited amount of high-quality assets. However, virtual worlds and synthetic data are becoming increasingly important for training A.I systems for computer vision. This application demands a huge amount of diverse assets but at the same time less affected by noisy and unrefined assets. Vastexture aims to address this need by creating a free, huge, and diverse assets repository that covers as many real-world materials as possible. The materials are automatically extracted from natural images in two steps: 1) Automatically scanning a giant amount of images to identify and crop regions with uniform textures. This is done by splitting the image into a grid of cells and identifying regions in which all of the cells share a similar statistical distribution. 2) Extracting the properties of the PBR material from the cropped texture. This is done by randomly guessing every correlation between the properties of the texture image and the properties of the PBR material. The resulting PBR materials exhibit a vast amount of real-world patterns as well as unexpected emergent properties. Neutral nets trained on this repository outperformed nets trained using handcrafted assets.
- Abstract(参考訳): Vastexturesは、50万のテクスチャとPBR素材からなる広大なリポジトリであり、教師なしのプロセスを用いて現実世界の画像から抽出されている。
抽出された材料やテクスチャは非常に多様で、さまざまな現実世界のパターンをカバーしているが、既存のリポジトリと比べて洗練されていない。
天然画像から採取した2次元テクスチャと、これらのテクスチャから生成されたSVBRDF/PBR材料からなる。
テクスチャとPBR材料はCGIに必須である。
既存の資料リポジトリは、限られた品質の資産を要求するゲーム、アニメーション、芸術に焦点を当てている。
しかし、仮想世界と合成データはコンピュータビジョンのためのA.Iシステムのトレーニングにおいてますます重要になっている。
このアプリケーションは膨大な量の多様な資産を必要とするが、同時にノイズや未精製の資産に影響を受けない。
Vastextureは、できるだけ多くの現実世界の資料をカバーする、無料で巨大で多様な資産リポジトリを作成することで、このニーズに対処することを目指している。
素材は自然画像から自動的に2段階に抽出される。
1)一様テクスチャを用いて大量の画像を自動的にスキャンし,作物の生育領域を同定する。
これは、画像を細胞グリッドに分割し、すべての細胞が同様の統計分布を持つ領域を特定することによって行われる。
2) 収穫した食感からPBR材の物性を抽出した。
これは、テクスチャ画像の特性とPBR材料の特性との相関関係をランダムに推測することによって行われる。
得られたPBR材料は、予期せぬ創発性だけでなく、膨大な量の現実世界のパターンを示す。
このレポジトリで訓練された中立ネットは、手工芸品を使って訓練されたネットよりも優れていた。
関連論文リスト
- TEXGen: a Generative Diffusion Model for Mesh Textures [63.43159148394021]
我々は、UVテクスチャ空間自体における学習の根本的な問題に焦点を当てる。
本稿では,点クラウド上にアテンション層を持つUVマップ上の畳み込みをインターリーブするスケーラブルなネットワークアーキテクチャを提案する。
テキストプロンプトとシングルビュー画像によって導かれるUVテクスチャマップを生成する7億のパラメータ拡散モデルを訓練する。
論文 参考訳(メタデータ) (2024-11-22T05:22:11Z) - On Synthetic Texture Datasets: Challenges, Creation, and Curation [1.9567015559455132]
56のテクスチャにまたがる362,880のテクスチャイメージのデータセットを作成します。
画像生成過程において,画像生成パイプライン内のNSFW安全フィルタはテクスチャに非常に敏感であることがわかった。
論文 参考訳(メタデータ) (2024-09-16T14:02:18Z) - Meta 3D TextureGen: Fast and Consistent Texture Generation for 3D Objects [54.80813150893719]
高品質なテクスチャを20秒未満で生成することを目的とした,2つのシーケンシャルネットワークで構成される新しいフィードフォワード方式であるMeta 3D TextureGenを紹介する。
提案手法は,2次元空間の3次元セマンティクスにテキスト・ツー・イメージ・モデルを適用し,それらを完全かつ高解像度なUVテクスチャマップに融合することにより,品質とスピードを向上する。
さらに、任意の比率で任意のテクスチャをアップスケーリングできるテクスチャ拡張ネットワークを導入し、4kピクセルの解像度テクスチャを生成します。
論文 参考訳(メタデータ) (2024-07-02T17:04:34Z) - Infinite Texture: Text-guided High Resolution Diffusion Texture Synthesis [61.189479577198846]
Infinite Textureはテキストプロンプトから任意の大きさのテクスチャ画像を生成する方法である。
本手法は,1つのテクスチャ上に拡散モデルを微調整し,その分布をモデルの出力領域に埋め込むことを学習する。
1つのGPU上で任意の解像度の出力テクスチャ画像を生成するためのスコアアグリゲーションストラテジーによって、我々の微調整拡散モデルが生成される。
論文 参考訳(メタデータ) (2024-05-13T21:53:09Z) - MaterialSeg3D: Segmenting Dense Materials from 2D Priors for 3D Assets [63.284244910964475]
本稿では,2次元のセマンティクスから基礎となる物質を推定する3次元アセット素材生成フレームワークを提案する。
このような先行モデルに基づいて,材料を三次元空間で解析する機構を考案する。
論文 参考訳(メタデータ) (2024-04-22T07:00:17Z) - Learning Zero-Shot Material States Segmentation, by Implanting Natural Image Patterns in Synthetic Data [0.555174246084229]
この研究は、現実世界の画像から抽出されたパターンを合成データに注入することで、ギャップを埋めることを目的としている。
ゼロショット材料状態セグメンテーションのための総合ベンチマークを初めて提示する。
また,30,000の抽出テクスチャとSVBRDF/PBR材料を共有し,将来の生成を容易にする。
論文 参考訳(メタデータ) (2024-03-05T20:21:49Z) - TextureDreamer: Image-guided Texture Synthesis through Geometry-aware
Diffusion [64.49276500129092]
TextureDreamerは画像誘導型テクスチャ合成法である。
少数の入力画像から任意のカテゴリでターゲットの3D形状に光沢のあるテクスチャを転送することができる。
論文 参考訳(メタデータ) (2024-01-17T18:55:49Z) - Material Palette: Extraction of Materials from a Single Image [19.410479434979493]
実世界の1つの画像から物理ベースレンダリング(PBR)素材を抽出する手法を提案する。
画像の領域を拡散モデルを用いて物質概念にマッピングし、シーン内の各材料に類似したテクスチャ画像のサンプリングを可能にする。
第二に、生成したテクスチャを空間変数BRDFに分解する別のネットワークの恩恵を受ける。
論文 参考訳(メタデータ) (2023-11-28T18:59:58Z) - TwinTex: Geometry-aware Texture Generation for Abstracted 3D
Architectural Models [13.248386665044087]
我々はTwinTexについて紹介する。TwinTexは写真にリアルなテクスチャを生成する最初の自動テクスチャマッピングフレームワークである。
提案手法は, 高品質なテクスチャマッピング手法を超越し, より少ない労力で, 熟練した生産水準に達する。
論文 参考訳(メタデータ) (2023-09-20T12:33:53Z) - TEXTure: Text-Guided Texturing of 3D Shapes [71.13116133846084]
TEXTureは,テクスチャのテクスチャのテクスチャの編集,編集,転送を行う新しい方法である。
表面テクスチャを明示することなくシームレスな3次元テクスチャを生成する3次元マップ分割プロセスを定義する。
論文 参考訳(メタデータ) (2023-02-03T13:18:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。