論文の概要: Modeling 3D Shapes by Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2003.12397v3
- Date: Thu, 17 Sep 2020 04:45:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 05:11:32.299311
- Title: Modeling 3D Shapes by Reinforcement Learning
- Title(参考訳): 強化学習による3次元形状のモデル化
- Authors: Cheng Lin, Tingxiang Fan, Wenping Wang, Matthias Nie{\ss}ner
- Abstract要約: RLに基づく2段階のニューラル・フレームワークを提案し、3次元モデリングポリシーを学習する。
モデリングエージェントを効果的に訓練するために,ポリシー,模倣学習,強化学習を組み合わせた新しい学習アルゴリズムを導入する。
実験の結果、エージェントは規則的および構造的メッシュモデルを生成するための優れたポリシーを学習できることがわかった。
- 参考スコア(独自算出の注目度): 33.343268605720176
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We explore how to enable machines to model 3D shapes like human modelers
using deep reinforcement learning (RL). In 3D modeling software like Maya, a
modeler usually creates a mesh model in two steps: (1) approximating the shape
using a set of primitives; (2) editing the meshes of the primitives to create
detailed geometry. Inspired by such artist-based modeling, we propose a
two-step neural framework based on RL to learn 3D modeling policies. By taking
actions and collecting rewards in an interactive environment, the agents first
learn to parse a target shape into primitives and then to edit the geometry. To
effectively train the modeling agents, we introduce a novel training algorithm
that combines heuristic policy, imitation learning and reinforcement learning.
Our experiments show that the agents can learn good policies to produce regular
and structure-aware mesh models, which demonstrates the feasibility and
effectiveness of the proposed RL framework.
- Abstract(参考訳): 深部強化学習(RL)を用いて,人間モデルのような3次元形状を機械でモデル化する方法を検討する。
mayaのような3dモデリングソフトウェアでは、モデラーは通常、(1)プリミティブのセットを使って形状を近似する、(2)プリミティブのメッシュを編集して詳細な幾何学を作成する、という2つのステップでメッシュモデルを作成する。
このようなアーティストに基づくモデリングに着想を得て,RLに基づく2段階のニューラル・フレームワークを提案し,3次元モデリングポリシーを学習する。
対話的な環境で行動を取り、報酬を集めることで、エージェントはまずターゲットの形状をプリミティブに解析し、それから幾何学を編集する。
モデリングエージェントを効果的に訓練するために,ヒューリスティック・ポリシー,模倣学習,強化学習を組み合わせた新しい学習アルゴリズムを提案する。
実験により, エージェントは規則的かつ構造を考慮したメッシュモデルを生成するための適切なポリシーを学習でき, 提案したRLフレームワークの有効性と有効性を示す。
関連論文リスト
- Make-A-Shape: a Ten-Million-scale 3D Shape Model [52.701745578415796]
本稿では,大規模な効率的なトレーニングを目的とした新しい3次元生成モデルであるMake-A-Shapeを紹介する。
まずウェーブレットツリー表現を革新し、サブバンド係数フィルタリングスキームを定式化して形状をコンパクトに符号化する。
我々は、粗いウェーブレット係数の生成を効果的に学習するために、我々のモデルを訓練するためのサブバンド適応型トレーニング戦略を導出する。
論文 参考訳(メタデータ) (2024-01-20T00:21:58Z) - Take-A-Photo: 3D-to-2D Generative Pre-training of Point Cloud Models [97.58685709663287]
生成事前学習は、2次元視覚における基本モデルの性能を高めることができる。
3Dビジョンでは、トランスフォーマーベースのバックボーンの過度な信頼性と、点雲の秩序のない性質により、生成前のトレーニングのさらなる発展が制限されている。
本稿では,任意の点クラウドモデルに適用可能な3D-to-2D生成事前学習法を提案する。
論文 参考訳(メタデータ) (2023-07-27T16:07:03Z) - MeshDiffusion: Score-based Generative 3D Mesh Modeling [68.40770889259143]
本研究では,シーンの自動生成と物理シミュレーションのための現実的な3次元形状生成の課題について考察する。
メッシュのグラフ構造を利用して、3Dメッシュを生成するのにシンプルだが非常に効果的な生成モデリング手法を用いる。
具体的には、変形可能な四面体格子でメッシュを表現し、この直接パラメトリゼーション上で拡散モデルを訓練する。
論文 参考訳(メタデータ) (2023-03-14T17:59:01Z) - Pixel2Mesh++: 3D Mesh Generation and Refinement from Multi-View Images [82.32776379815712]
カメラポーズの有無にかかわらず、少数のカラー画像から3次元メッシュ表現における形状生成の問題について検討する。
我々は,グラフ畳み込みネットワークを用いたクロスビュー情報を活用することにより,形状品質をさらに向上する。
我々のモデルは初期メッシュの品質とカメラポーズの誤差に頑健であり、テスト時間最適化のための微分関数と組み合わせることができる。
論文 参考訳(メタデータ) (2022-04-21T03:42:31Z) - SNUG: Self-Supervised Neural Dynamic Garments [14.83072352654608]
本研究では,パラメトリックな人体が着る衣服の動的3次元変形を自己指導的に学習する手法を提案する。
これにより、動的変形や細かいしわを含むインタラクティブな衣服のモデルを、トレーニング時間に2桁の速度で学習することができる。
論文 参考訳(メタデータ) (2022-04-05T13:50:21Z) - AutoPoly: Predicting a Polygonal Mesh Construction Sequence from a
Silhouette Image [17.915067368873018]
AutoPolyはシルエット画像から多角形メッシュ構築シーケンスを生成するハイブリッド手法である。
提案手法はトポロジを修正できるが,最近提案された微分可能レンダリングを用いた逆形状推定法は固定トポロジのみを処理できる。
論文 参考訳(メタデータ) (2022-03-29T04:48:47Z) - Generative VoxelNet: Learning Energy-Based Models for 3D Shape Synthesis
and Analysis [143.22192229456306]
本稿では,体積形状を表す3次元エネルギーモデルを提案する。
提案モデルの利点は6倍である。
実験により,提案モデルが高品質な3d形状パターンを生成できることが実証された。
論文 参考訳(メタデータ) (2020-12-25T06:09:36Z) - Discrete Point Flow Networks for Efficient Point Cloud Generation [36.03093265136374]
生成モデルは3次元形状とその統計的バリエーションをモデル化するのに有効であることが証明されている。
任意の大きさの3次元点雲を生成するために,フローの正規化に基づく潜在変数モデルを導入する。
単一ビュー形状再構成では、最先端のボクセル、ポイントクラウド、メッシュベースの手法と同等の結果が得られる。
論文 参考訳(メタデータ) (2020-07-20T14:48:00Z) - Learning Predictive Representations for Deformable Objects Using
Contrastive Estimation [83.16948429592621]
視覚表現モデルと動的モデルの両方を協調的に最適化する新しい学習フレームワークを提案する。
我々は,標準モデルに基づく学習手法をロープや布の操作スイートで大幅に改善した。
論文 参考訳(メタデータ) (2020-03-11T17:55:15Z) - Inverse Graphics GAN: Learning to Generate 3D Shapes from Unstructured
2D Data [19.807173910379966]
2次元データから3次元生成モデルを構築するための,最初のスケーラブルなトレーニング手法を紹介する。
我々は,非構造化2次元画像のトレーニングにおいて,既存のモデルよりも優れた形状を生成することができることを示す。
論文 参考訳(メタデータ) (2020-02-28T12:28:12Z) - PolyGen: An Autoregressive Generative Model of 3D Meshes [22.860421649320287]
本稿では,Transformerベースのアーキテクチャを用いてメッシュを直接モデル化するアプローチを提案する。
我々のモデルは、オブジェクトクラス、ボクセル、イメージなど、様々な入力を条件にすることができる。
このモデルでは、高品質で使い勝手の良いメッシュを生成でき、メッシュモデリングタスクのためのログライクなベンチマークを確立することができる。
論文 参考訳(メタデータ) (2020-02-23T17:16:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。