論文の概要: Texture Generation Using Graph Generative Adversarial Network And
Differentiable Rendering
- arxiv url: http://arxiv.org/abs/2206.08547v1
- Date: Fri, 17 Jun 2022 04:56:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-20 13:57:08.563076
- Title: Texture Generation Using Graph Generative Adversarial Network And
Differentiable Rendering
- Title(参考訳): グラフ生成逆ネットワークと微分可能レンダリングを用いたテクスチャ生成
- Authors: Dharma KC, Clayton T. Morrison, Bradley Walls
- Abstract要約: 既存の3次元メッシュモデルのための新しいテクスチャ合成は、シミュレータのフォトリアルアセット生成に向けた重要なステップである。
既存の手法は、カメラの観点からの3次元空間の投影である2次元画像空間で本質的に機能する。
本稿では,BlenderやUnreal Engineといったツールを用いて,与えられた3Dメッシュモデルに直接統合可能なテクスチャを生成可能なGGAN(Graph Generative Adversarial Network)という新しいシステムを提案する。
- 参考スコア(独自算出の注目度): 0.6439285904756329
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Novel texture synthesis for existing 3D mesh models is an important step
towards photo realistic asset generation for existing simulators. But existing
methods inherently work in the 2D image space which is the projection of the 3D
space from a given camera perspective. These methods take camera angle, 3D
model information, lighting information and generate photorealistic 2D image.
To generate a photorealistic image from another perspective or lighting, we
need to make a computationally expensive forward pass each time we change the
parameters. Also, it is hard to generate such images for a simulator that can
satisfy the temporal constraints the sequences of images should be similar but
only need to change the viewpoint of lighting as desired. The solution can not
be directly integrated with existing tools like Blender and Unreal Engine.
Manual solution is expensive and time consuming. We thus present a new system
called a graph generative adversarial network (GGAN) that can generate textures
which can be directly integrated into a given 3D mesh models with tools like
Blender and Unreal Engine and can be simulated from any perspective and
lighting condition easily.
- Abstract(参考訳): 既存の3次元メッシュモデルのための新しいテクスチャ合成は、既存のシミュレータのためのフォトリアルアセット生成に向けた重要なステップである。
しかし、既存の手法は、所定のカメラ視点から3d空間を投影する2d画像空間で本質的に機能する。
これらの方法は、カメラアングル、3dモデル情報、照明情報、フォトリアリスティックな2d画像を生成する。
別の視点や照明からフォトリアリスティック画像を生成するためには、パラメータを変更する度に計算的に高価な前方通過をする必要がある。
また、画像のシーケンスが類似すべき時間的制約を満たすことができるシミュレータに対してそのような画像を生成することは困難であるが、望まれる照明の視点を変える必要がある。
blenderやunreal engineといった既存のツールと直接統合することはできない。
手動のソリューションは高価で時間がかかります。
そこで本研究では,ggan(graph generative adversarial network)と呼ばれる新たなシステムを提案する。これは,ミキサーやunreal engineといったツールを用いて,所定の3dメッシュモデルに直接統合され,任意の視点や照明条件から容易にシミュレーションできるテクスチャを生成することができる。
関連論文リスト
- Denoising Diffusion via Image-Based Rendering [54.20828696348574]
実世界の3Dシーンの高速かつ詳細な再構築と生成を可能にする最初の拡散モデルを提案する。
まず、大きな3Dシーンを効率よく正確に表現できる新しいニューラルシーン表現であるIBプレーンを導入する。
第二に,2次元画像のみを用いて,この新たな3次元シーン表現の事前学習を行うためのデノイング拡散フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-05T19:00:45Z) - TextMesh: Generation of Realistic 3D Meshes From Text Prompts [56.2832907275291]
リアルな3Dメッシュを生成するための新しい手法を提案する。
この目的のために、NeRFをSDFバックボーンに拡張し、3Dメッシュ抽出を改善した。
論文 参考訳(メタデータ) (2023-04-24T20:29:41Z) - GET3D: A Generative Model of High Quality 3D Textured Shapes Learned
from Images [72.15855070133425]
本稿では,複雑なトポロジ,リッチな幾何学的ディテール,高忠実度テクスチャを備えたExplicit Textured 3Dメッシュを直接生成する生成モデルであるGET3Dを紹介する。
GET3Dは、車、椅子、動物、バイク、人間キャラクターから建物まで、高品質な3Dテクスチャメッシュを生成することができる。
論文 参考訳(メタデータ) (2022-09-22T17:16:19Z) - A Shading-Guided Generative Implicit Model for Shape-Accurate 3D-Aware
Image Synthesis [163.96778522283967]
そこで本研究では,シェーディング誘導型生成暗黙モデルを提案する。
正確な3D形状は、異なる照明条件下でリアルなレンダリングをもたらす必要がある。
複数のデータセットに対する実験により,提案手法が光リアルな3次元画像合成を実現することを示す。
論文 参考訳(メタデータ) (2021-10-29T10:53:12Z) - SMPLpix: Neural Avatars from 3D Human Models [56.85115800735619]
従来のレンダリングと画素空間で動作する最新の生成ネットワークのギャップを埋める。
我々は、スパースな3Dメッシュ頂点をフォトリアリスティックな画像に変換するネットワークを訓練する。
我々は,フォトリアリズムのレベルとレンダリング効率の両面で,従来の微分可能よりも優位性を示す。
論文 参考訳(メタデータ) (2020-08-16T10:22:00Z) - Photorealism in Driving Simulations: Blending Generative Adversarial
Image Synthesis with Rendering [0.0]
我々は、運転シミュレーションの視覚的忠実度を改善するために、ハイブリッドな生成型ニューラルネットワークパイプラインを導入する。
テクスチャのない単純なオブジェクトモデルからなる3次元シーンから2次元のセマンティック画像を生成する。
これらのセマンティックイメージは、現実の運転シーンで訓練された最先端のジェネレーティブ・アドリア・ネットワーク(GAN)を用いて、フォトリアリスティックなRGBイメージに変換される。
論文 参考訳(メタデータ) (2020-07-31T03:25:17Z) - Towards Realistic 3D Embedding via View Alignment [53.89445873577063]
本稿では,3次元モデルを2次元背景画像に現実的に,かつ自動的に埋め込み,新たな画像を構成する,革新的なビューアライメントGAN(VA-GAN)を提案する。
VA-GANはテクスチャジェネレータとディファレンシャルディスクリミネーターで構成され、相互接続され、エンドツーエンドのトレーニングが可能である。
論文 参考訳(メタデータ) (2020-07-14T14:45:00Z) - Convolutional Generation of Textured 3D Meshes [34.20939983046376]
単視点自然画像からの2次元監視のみを用いて,三角形メッシュとそれに伴う高分解能テクスチャマップを生成できるフレームワークを提案する。
我々の研究の重要な貢献は、メッシュとテクスチャを2D表現として符号化することであり、意味的に整合し、2D畳み込みGANで容易にモデル化できる。
本研究では,Pascal3D+カーとCUBにおいて,モデルがクラスラベル,属性,テキストに条件付けされている場合とで,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-06-13T15:23:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。