論文の概要: Inverse Graphics GAN: Learning to Generate 3D Shapes from Unstructured
2D Data
- arxiv url: http://arxiv.org/abs/2002.12674v1
- Date: Fri, 28 Feb 2020 12:28:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 01:47:50.658786
- Title: Inverse Graphics GAN: Learning to Generate 3D Shapes from Unstructured
2D Data
- Title(参考訳): 逆グラフGAN:非構造化2次元データから3次元形状を生成する学習
- Authors: Sebastian Lunz, Yingzhen Li, Andrew Fitzgibbon, Nate Kushman
- Abstract要約: 2次元データから3次元生成モデルを構築するための,最初のスケーラブルなトレーニング手法を紹介する。
我々は,非構造化2次元画像のトレーニングにおいて,既存のモデルよりも優れた形状を生成することができることを示す。
- 参考スコア(独自算出の注目度): 19.807173910379966
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work has shown the ability to learn generative models for 3D shapes
from only unstructured 2D images. However, training such models requires
differentiating through the rasterization step of the rendering process,
therefore past work has focused on developing bespoke rendering models which
smooth over this non-differentiable process in various ways. Such models are
thus unable to take advantage of the photo-realistic, fully featured,
industrial renderers built by the gaming and graphics industry. In this paper
we introduce the first scalable training technique for 3D generative models
from 2D data which utilizes an off-the-shelf non-differentiable renderer. To
account for the non-differentiability, we introduce a proxy neural renderer to
match the output of the non-differentiable renderer. We further propose
discriminator output matching to ensure that the neural renderer learns to
smooth over the rasterization appropriately. We evaluate our model on images
rendered from our generated 3D shapes, and show that our model can consistently
learn to generate better shapes than existing models when trained with
exclusively unstructured 2D images.
- Abstract(参考訳): 近年の研究では、非構造化2次元画像のみから3次元形状の生成モデルを学習できることが示されている。
しかし、そのようなモデルをトレーニングするにはレンダリングプロセスのラスタ化ステップを通じて差別化する必要があるため、過去の研究は様々な方法でこの非微分不可能なプロセスを円滑に行うベスポークレンダリングモデルの開発に重点を置いてきた。
したがって、そのようなモデルは、ゲームやグラフィック産業によって作られた写真リアリスティックで完全に特徴付けられた工業用レンダラーを活用できない。
本稿では,市販の非微分可能レンダラーを利用した2次元データから3次元生成モデルのスケーラブルなトレーニング手法を提案する。
非微分可能性を考慮するために、非微分可能レンダラの出力にマッチするプロキシニューラルレンダラを導入する。
さらに,ニューラルレンダラーがラスタ化を適切にスムースに学習することを保証するために,識別器出力マッチングを提案する。
我々は, 生成した3次元形状から生成した画像に対して, モデルを評価することにより, 既存のモデルよりも良好な形状を生成できることを示す。
関連論文リスト
- PonderV2: Pave the Way for 3D Foundation Model with A Universal
Pre-training Paradigm [114.47216525866435]
本稿では,効率的な3D表現の獲得を容易にするために,新しいユニバーサル3D事前学習フレームワークを提案する。
PonderV2は、11の室内および屋外ベンチマークで最先端のパフォーマンスを達成したことで、その効果が示唆された。
論文 参考訳(メタデータ) (2023-10-12T17:59:57Z) - Guide3D: Create 3D Avatars from Text and Image Guidance [55.71306021041785]
Guide3Dは拡散モデルに基づく3Dアバター生成のためのテキスト・画像誘導生成モデルである。
我々のフレームワークは、トポロジカルかつ構造的に正しい幾何と高分解能なテクスチャを生成する。
論文 参考訳(メタデータ) (2023-08-18T17:55:47Z) - HoloDiffusion: Training a 3D Diffusion Model using 2D Images [71.1144397510333]
我々は,2次元画像のみを監督のために配置した,エンドツーエンドでトレーニング可能な新しい拡散装置を導入する。
我々の拡散モデルはスケーラブルで、頑健に訓練されており、既存の3次元生成モデルへのアプローチに対して、サンプルの品質と忠実さの点で競争力があることを示す。
論文 参考訳(メタデータ) (2023-03-29T07:35:56Z) - 3D Neural Field Generation using Triplane Diffusion [37.46688195622667]
ニューラルネットワークの3次元認識のための効率的な拡散ベースモデルを提案する。
当社のアプローチでは,ShapeNetメッシュなどのトレーニングデータを,連続的占有フィールドに変換することによって前処理する。
本論文では,ShapeNetのオブジェクトクラスにおける3D生成の現状について述べる。
論文 参考訳(メタデータ) (2022-11-30T01:55:52Z) - DreamFusion: Text-to-3D using 2D Diffusion [52.52529213936283]
テキストと画像の合成の最近の進歩は、何十億もの画像と画像のペアで訓練された拡散モデルによって引き起こされている。
本研究では,事前訓練された2次元テキスト・ツー・イメージ拡散モデルを用いてテキスト・ツー・3次元合成を行うことにより,これらの制約を回避する。
提案手法では,3次元トレーニングデータや画像拡散モデルの変更は必要とせず,事前訓練した画像拡散モデルの有効性を実証する。
論文 参考訳(メタデータ) (2022-09-29T17:50:40Z) - A Shading-Guided Generative Implicit Model for Shape-Accurate 3D-Aware
Image Synthesis [163.96778522283967]
そこで本研究では,シェーディング誘導型生成暗黙モデルを提案する。
正確な3D形状は、異なる照明条件下でリアルなレンダリングをもたらす必要がある。
複数のデータセットに対する実験により,提案手法が光リアルな3次元画像合成を実現することを示す。
論文 参考訳(メタデータ) (2021-10-29T10:53:12Z) - Using Adaptive Gradient for Texture Learning in Single-View 3D
Reconstruction [0.0]
3次元モデル再構築のための学習ベースのアプローチは、現代の応用によって注目を集めている。
本稿では,サンプリング画像のばらつきに基づいて予測座標の勾配を最適化し,新しいサンプリングアルゴリズムを提案する。
また,frechetインセプション距離(fid)を用いて学習における損失関数を形成し,レンダリング画像と入力画像とのギャップを橋渡しする。
論文 参考訳(メタデータ) (2021-04-29T07:52:54Z) - SMPLpix: Neural Avatars from 3D Human Models [56.85115800735619]
従来のレンダリングと画素空間で動作する最新の生成ネットワークのギャップを埋める。
我々は、スパースな3Dメッシュ頂点をフォトリアリスティックな画像に変換するネットワークを訓練する。
我々は,フォトリアリズムのレベルとレンダリング効率の両面で,従来の微分可能よりも優位性を示す。
論文 参考訳(メタデータ) (2020-08-16T10:22:00Z) - Convolutional Generation of Textured 3D Meshes [34.20939983046376]
単視点自然画像からの2次元監視のみを用いて,三角形メッシュとそれに伴う高分解能テクスチャマップを生成できるフレームワークを提案する。
我々の研究の重要な貢献は、メッシュとテクスチャを2D表現として符号化することであり、意味的に整合し、2D畳み込みGANで容易にモデル化できる。
本研究では,Pascal3D+カーとCUBにおいて,モデルがクラスラベル,属性,テキストに条件付けされている場合とで,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-06-13T15:23:29Z) - Leveraging 2D Data to Learn Textured 3D Mesh Generation [33.32377849866736]
テクスチャ化された3Dメッシュの最初の生成モデルを示す。
我々は、各画像を3Dフォアグラウンドオブジェクトとしてモデル化することで、画像の分布を説明するためにモデルを訓練する。
レンダリングされたメッシュを生成して、トレーニングセットと同じようなイメージを生成する。
論文 参考訳(メタデータ) (2020-04-08T18:00:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。