論文の概要: Learning geometry-image representation for 3D point cloud generation
- arxiv url: http://arxiv.org/abs/2011.14289v1
- Date: Sun, 29 Nov 2020 05:21:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-07 13:20:29.441404
- Title: Learning geometry-image representation for 3D point cloud generation
- Title(参考訳): 3次元点雲生成のための幾何学画像の学習
- Authors: Lei Wang, Yuchun Huang, Pengjie Tao, Yaolin Hou, Yuxuan Liu
- Abstract要約: 本稿では、3次元点雲生成問題を2次元幾何画像生成問題に変換するための新しい幾何画像ベースジェネレータ(GIG)を提案する。
剛性および非剛性な3次元オブジェクトデータセットの実験により,本手法の有望な性能を実証した。
- 参考スコア(独自算出の注目度): 5.3485743892868545
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the problem of generating point clouds of 3D objects. Instead of
discretizing the object into 3D voxels with huge computational cost and
resolution limitations, we propose a novel geometry image based generator (GIG)
to convert the 3D point cloud generation problem to a 2D geometry image
generation problem. Since the geometry image is a completely regular 2D array
that contains the surface points of the 3D object, it leverages both the
regularity of the 2D array and the geodesic neighborhood of the 3D surface.
Thus, one significant benefit of our GIG is that it allows us to directly
generate the 3D point clouds using efficient 2D image generation networks.
Experiments on both rigid and non-rigid 3D object datasets have demonstrated
the promising performance of our method to not only create plausible and novel
3D objects, but also learn a probabilistic latent space that well supports the
shape editing like interpolation and arithmetic.
- Abstract(参考訳): 3次元物体の点雲生成の問題点について考察する。
計算コストと解像度の制約を伴ってオブジェクトを3次元ボクセルに識別する代わりに、3次元点雲生成問題を2次元幾何画像生成問題に変換するための新しい幾何画像ベースジェネレータ(GIG)を提案する。
幾何学像は3dオブジェクトの表面点を含む完全に正則な2dアレイであるため、2dアレイの正則性と3d表面の測地線近傍の両方を利用する。
したがって、GIGの大きな利点の1つは、効率的な2D画像生成ネットワークを用いて、3Dポイントクラウドを直接生成できることです。
剛性および非剛性の両方の3Dオブジェクトデータセットの実験は、可塑性および新規な3Dオブジェクトを作成するだけでなく、補間や算術のような形状編集をうまくサポートする確率的潜在空間を学習するために、我々の手法の有望な性能を実証した。
関連論文リスト
- Deep Geometric Moments Promote Shape Consistency in Text-to-3D Generation [27.43973967994717]
MT3Dは高忠実度3Dオブジェクトを利用して視点バイアスを克服するテキスト・ツー・3D生成モデルである。
生成した2次元画像が基本形状と構造を保持することを保証するために,高品質な3次元モデルから導出される深度マップを制御信号として利用する。
3Dアセットから幾何学的詳細を取り入れることで、MT3Dは多様で幾何学的に一貫したオブジェクトを作成することができる。
論文 参考訳(メタデータ) (2024-08-12T06:25:44Z) - ScalingGaussian: Enhancing 3D Content Creation with Generative Gaussian Splatting [30.99112626706754]
高品質な3Dアセットの作成は、デジタル遺産、エンターテイメント、ロボット工学の応用において最重要である。
伝統的に、このプロセスはモデリングに熟練した専門家と専門的なソフトウェアを必要とする。
本稿では,3Dテクスチャを効率的に生成する新しい3Dコンテンツ作成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-26T18:26:01Z) - What You See is What You GAN: Rendering Every Pixel for High-Fidelity
Geometry in 3D GANs [82.3936309001633]
3D-aware Generative Adversarial Networks (GANs) は,マルチビュー一貫性画像と3Dジオメトリを生成する学習において,顕著な進歩を見せている。
しかし、ボリュームレンダリングにおける高密度サンプリングの大幅なメモリと計算コストにより、3D GANはパッチベースのトレーニングを採用するか、後処理の2Dスーパーレゾリューションで低解像度レンダリングを採用することを余儀なくされた。
ニューラルボリュームレンダリングをネイティブ2次元画像の高解像度化に拡張する手法を提案する。
論文 参考訳(メタデータ) (2024-01-04T18:50:38Z) - Points-to-3D: Bridging the Gap between Sparse Points and
Shape-Controllable Text-to-3D Generation [16.232803881159022]
本稿では,スパースで自由な3Dポイントとリアルな形状制御可能な3D生成とのギャップを埋めるために,Points-to-3Dのフレキシブルなフレームワークを提案する。
Points-to-3Dの基本的な考え方は、テキストから3D生成を導くために制御可能なスパース3Dポイントを導入することである。
論文 参考訳(メタデータ) (2023-07-26T02:16:55Z) - Self-Supervised Geometry-Aware Encoder for Style-Based 3D GAN Inversion [115.82306502822412]
StyleGANは、画像インバージョンと潜時編集による2次元顔再構成とセマンティック編集において大きな進歩を遂げている。
対応する汎用的な3D GANインバージョンフレームワークがまだ欠けており、3D顔再構成とセマンティック編集の応用が制限されている。
本研究では,その3次元形状と詳細なテクスチャを忠実に復元するために,単一の顔画像から潜伏コードを予測する3D GAN逆変換の課題について検討する。
論文 参考訳(メタデータ) (2022-12-14T18:49:50Z) - XDGAN: Multi-Modal 3D Shape Generation in 2D Space [60.46777591995821]
本稿では,3次元形状をコンパクトな1チャネル幾何画像に変換し,StyleGAN3と画像間翻訳ネットワークを利用して2次元空間で3次元オブジェクトを生成する手法を提案する。
生成された幾何学画像は素早く3Dメッシュに変換し、リアルタイムな3Dオブジェクト合成、可視化、インタラクティブな編集を可能にする。
近年の3次元生成モデルと比較して,より高速かつ柔軟な3次元形状生成,単一ビュー再構成,形状操作などの様々なタスクにおいて,本手法が有効であることを示す。
論文 参考訳(メタデータ) (2022-10-06T15:54:01Z) - Improving 3D-aware Image Synthesis with A Geometry-aware Discriminator [68.0533826852601]
3Dを意識した画像合成は、画像のリアルな2D画像の描画が可能な生成モデルを学ぶことを目的としている。
既存の方法では、適度な3D形状が得られない。
本稿では,3次元GANの改良を目的とした幾何学的識別器を提案する。
論文 参考訳(メタデータ) (2022-09-30T17:59:37Z) - DM-NeRF: 3D Scene Geometry Decomposition and Manipulation from 2D Images [15.712721653893636]
DM-NeRFは、1つのパイプラインで複雑な3Dシーンを同時に再構築、分解、操作、レンダリングする最初のものである。
提案手法は,3次元オブジェクトを2次元ビューから正確に分解し,任意のオブジェクトを3次元空間で自由に操作することができる。
論文 参考訳(メタデータ) (2022-08-15T14:32:10Z) - Unsupervised Learning of Fine Structure Generation for 3D Point Clouds
by 2D Projection Matching [66.98712589559028]
微細な構造を持つ3次元点雲生成のための教師なしアプローチを提案する。
本手法は2次元シルエット画像から異なる解像度で微細な3次元構造を復元することができる。
論文 参考訳(メタデータ) (2021-08-08T22:15:31Z) - Do 2D GANs Know 3D Shape? Unsupervised 3D shape reconstruction from 2D
Image GANs [156.1209884183522]
GANのような最先端の2D生成モデルは、自然像多様体のモデリングにおいて前例のない品質を示している。
本稿では,RGB画像のみをトレーニングした市販の2D GANから3次元幾何学的手がかりを直接マイニングする試みについて紹介する。
論文 参考訳(メタデータ) (2020-11-02T09:38:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。