論文の概要: PolyGen: An Autoregressive Generative Model of 3D Meshes
- arxiv url: http://arxiv.org/abs/2002.10880v1
- Date: Sun, 23 Feb 2020 17:16:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 09:11:26.591039
- Title: PolyGen: An Autoregressive Generative Model of 3D Meshes
- Title(参考訳): PolyGen: 3Dメッシュの自動回帰生成モデル
- Authors: Charlie Nash, Yaroslav Ganin, S. M. Ali Eslami, Peter W. Battaglia
- Abstract要約: 本稿では,Transformerベースのアーキテクチャを用いてメッシュを直接モデル化するアプローチを提案する。
我々のモデルは、オブジェクトクラス、ボクセル、イメージなど、様々な入力を条件にすることができる。
このモデルでは、高品質で使い勝手の良いメッシュを生成でき、メッシュモデリングタスクのためのログライクなベンチマークを確立することができる。
- 参考スコア(独自算出の注目度): 22.860421649320287
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Polygon meshes are an efficient representation of 3D geometry, and are of
central importance in computer graphics, robotics and games development.
Existing learning-based approaches have avoided the challenges of working with
3D meshes, instead using alternative object representations that are more
compatible with neural architectures and training approaches. We present an
approach which models the mesh directly, predicting mesh vertices and faces
sequentially using a Transformer-based architecture. Our model can condition on
a range of inputs, including object classes, voxels, and images, and because
the model is probabilistic it can produce samples that capture uncertainty in
ambiguous scenarios. We show that the model is capable of producing
high-quality, usable meshes, and establish log-likelihood benchmarks for the
mesh-modelling task. We also evaluate the conditional models on surface
reconstruction metrics against alternative methods, and demonstrate competitive
performance despite not training directly on this task.
- Abstract(参考訳): ポリゴンメッシュは3次元幾何学の効率的な表現であり、コンピュータグラフィックス、ロボティクス、ゲーム開発において重要である。
既存の学習ベースのアプローチは、3dメッシュを扱う際の課題を避け、代わりに神経アーキテクチャやトレーニングアプローチとより互換性のある代替オブジェクト表現を使用する。
本稿では,メッシュを直接モデル化し,トランスフォーマーアーキテクチャを用いてメッシュ頂点と顔を逐次予測する手法を提案する。
我々のモデルは、オブジェクトクラス、ボクセル、画像を含む様々な入力を条件付けすることができ、そのモデルが確率的であるため、曖昧なシナリオにおける不確実性を捉えるサンプルを生成することができる。
このモデルは高品質で使いやすいメッシュを生成でき、メッシュモデリングタスクのためのログライクなベンチマークを確立することができる。
また, 代替手法に対する表面再構成指標の条件モデルを評価し, 本課題を直接訓練していないにもかかわらず, 競合性能を示す。
関連論文リスト
- Pushing Auto-regressive Models for 3D Shape Generation at Capacity and
Scalability [121.44324465222498]
自己回帰モデルでは,格子空間における関節分布をモデル化することにより,2次元画像生成において顕著な結果が得られた。
自動回帰モデルを3次元領域に拡張し,キャパシティとスケーラビリティを同時に向上することにより,3次元形状生成の強力な能力を求める。
論文 参考訳(メタデータ) (2024-02-19T15:33:09Z) - Randomized 3D Scene Generation for Generalizable Self-Supervised
Pre-Training [0.0]
球面高調波を用いた3次元シーン生成手法を提案する。
従来の定式化法をクリアマージンで上回り、実世界のスキャンとCADモデルを用いた手法を用いて、中間結果を得る。
論文 参考訳(メタデータ) (2023-06-07T08:28:38Z) - 4D Facial Expression Diffusion Model [4.173595444181097]
本稿では,3次元表情系列を生成するための生成フレームワークを提案する。
これは、一連の3Dランドマークシーケンスでトレーニングされた生成モデルを学ぶことと、生成されたランドマークシーケンスによって駆動される入力された顔メッシュの3Dメッシュシーケンスを生成することの2つのタスクで構成されている。
実験により,本モデルは比較的小さなデータセットからのみ,現実的で質の高い表現を生成することができ,最先端の手法よりも改善されていることがわかった。
論文 参考訳(メタデータ) (2023-03-29T11:50:21Z) - MeshDiffusion: Score-based Generative 3D Mesh Modeling [68.40770889259143]
本研究では,シーンの自動生成と物理シミュレーションのための現実的な3次元形状生成の課題について考察する。
メッシュのグラフ構造を利用して、3Dメッシュを生成するのにシンプルだが非常に効果的な生成モデリング手法を用いる。
具体的には、変形可能な四面体格子でメッシュを表現し、この直接パラメトリゼーション上で拡散モデルを訓練する。
論文 参考訳(メタデータ) (2023-03-14T17:59:01Z) - Pixel2Mesh++: 3D Mesh Generation and Refinement from Multi-View Images [82.32776379815712]
カメラポーズの有無にかかわらず、少数のカラー画像から3次元メッシュ表現における形状生成の問題について検討する。
我々は,グラフ畳み込みネットワークを用いたクロスビュー情報を活用することにより,形状品質をさらに向上する。
我々のモデルは初期メッシュの品質とカメラポーズの誤差に頑健であり、テスト時間最適化のための微分関数と組み合わせることができる。
論文 参考訳(メタデータ) (2022-04-21T03:42:31Z) - Disentangled3D: Learning a 3D Generative Model with Disentangled
Geometry and Appearance from Monocular Images [94.49117671450531]
最先端の3D生成モデルは、合成に神経的な3Dボリューム表現を使用するGANである。
本稿では,単分子観察だけで物体の絡み合ったモデルを学ぶことができる3D GANを設計する。
論文 参考訳(メタデータ) (2022-03-29T22:03:18Z) - Scene Synthesis via Uncertainty-Driven Attribute Synchronization [52.31834816911887]
本稿では,3次元シーンの多様な特徴パターンを捉えるニューラルシーン合成手法を提案する。
提案手法は,ニューラルネットワークと従来のシーン合成手法の双方の長所を結合する。
論文 参考訳(メタデータ) (2021-08-30T19:45:07Z) - Probabilistic Modeling for Human Mesh Recovery [73.11532990173441]
本稿では,2次元の証拠から3次元の人体復元の問題に焦点を当てた。
我々は,この問題を,入力から3Dポーズの分布へのマッピング学習として再考した。
論文 参考訳(メタデータ) (2021-08-26T17:55:11Z) - Convolutional Generation of Textured 3D Meshes [34.20939983046376]
単視点自然画像からの2次元監視のみを用いて,三角形メッシュとそれに伴う高分解能テクスチャマップを生成できるフレームワークを提案する。
我々の研究の重要な貢献は、メッシュとテクスチャを2D表現として符号化することであり、意味的に整合し、2D畳み込みGANで容易にモデル化できる。
本研究では,Pascal3D+カーとCUBにおいて,モデルがクラスラベル,属性,テキストに条件付けされている場合とで,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-06-13T15:23:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。