論文の概要: MRGAN: Multi-Rooted 3D Shape Generation with Unsupervised Part
Disentanglement
- arxiv url: http://arxiv.org/abs/2007.12944v1
- Date: Sat, 25 Jul 2020 14:41:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 00:53:54.004520
- Title: MRGAN: Multi-Rooted 3D Shape Generation with Unsupervised Part
Disentanglement
- Title(参考訳): MRGAN:非教師付き部品アンタングルを用いた多回転3次元形状生成
- Authors: Rinon Gal, Amit Bermano, Hao Zhang, Daniel Cohen-Or
- Abstract要約: 本稿では, MRGANを提案する。MRGANは, パートベース形状の監視を伴わずに, 対角3次元点雲形状を生成するマルチルート対向ネットワークである。
このネットワークは、点雲を生成する木構造グラフ畳み込み層の複数の枝を融合させ、木根での学習可能な定数入力を行う。
- 参考スコア(独自算出の注目度): 49.05682172235875
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present MRGAN, a multi-rooted adversarial network which generates
part-disentangled 3D point-cloud shapes without part-based shape supervision.
The network fuses multiple branches of tree-structured graph convolution layers
which produce point clouds, with learnable constant inputs at the tree roots.
Each branch learns to grow a different shape part, offering control over the
shape generation at the part level. Our network encourages disentangled
generation of semantic parts via two key ingredients: a root-mixing training
strategy which helps decorrelate the different branches to facilitate
disentanglement, and a set of loss terms designed with part disentanglement and
shape semantics in mind. Of these, a novel convexity loss incentivizes the
generation of parts that are more convex, as semantic parts tend to be. In
addition, a root-dropping loss further ensures that each root seeds a single
part, preventing the degeneration or over-growth of the point-producing
branches. We evaluate the performance of our network on a number of 3D shape
classes, and offer qualitative and quantitative comparisons to previous works
and baseline approaches. We demonstrate the controllability offered by our
part-disentangled generation through two applications for shape modeling: part
mixing and individual part variation, without receiving segmented shapes as
input.
- Abstract(参考訳): 本稿では, MRGANを提案する。MRGANは, パートベース形状の監視を伴わずに, 対角3次元点雲形状を生成するマルチルート対向ネットワークである。
ネットワークは木構造グラフ畳み込み層の複数の枝を融合し、木根で学習可能な一定の入力を持つ点雲を生成する。
各ブランチは、異なる形状部を成長させることを学び、部分レベルでの形状生成を制御する。
このネットワークは, 異なる枝を分離し, 絡み合いを容易にするルート混合訓練戦略と, 部分絡み合いと形状意味論を念頭に置いて設計された損失項の2つの主成分を用いて, 意味的部分の絡み合い生成を奨励する。
これらのうち、新しい凸性損失は、セマンティックな部分が多いため、より凸性のある部分の生成にインセンティブを与える。
さらに、根投下損失は、各根種が単一の部分であることをさらに保証し、点生成枝の変性または過剰成長を防止する。
我々は,ネットワークの性能を複数の3次元形状クラスで評価し,従来の研究とベースラインアプローチとを質的,定量的に比較した。
形状モデリングの2つの応用により, 分割された形状を入力として受け取らずに, 部分混合と個々の部分変動の制御性を示す。
関連論文リスト
- DiffFacto: Controllable Part-Based 3D Point Cloud Generation with Cross
Diffusion [68.39543754708124]
DiffFactoは,部品レベルの制御で形状の分布を学習する新しい確率的生成モデルである。
実験により,複数の制御軸を持つ新しい形状を生成可能であることが示された。
最先端のパートレベルの生成品質を実現し、可塑性かつコヒーレントな形状を生成する。
論文 参考訳(メタデータ) (2023-05-03T06:38:35Z) - Point Cloud Semantic Segmentation using Multi Scale Sparse Convolution
Neural Network [0.0]
本稿では,マルチスケール超スパース畳み込みに基づく特徴抽出モジュールと,チャネルアテンションに基づく特徴選択モジュールを提案する。
マルチスケールのスパース畳み込みを導入することで、ネットワークは異なるサイズの畳み込みカーネルに基づいてよりリッチな特徴情報をキャプチャできる。
論文 参考訳(メタデータ) (2022-05-03T15:01:20Z) - CP-Net: Contour-Perturbed Reconstruction Network for Self-Supervised
Point Cloud Learning [53.1436669083784]
本稿では,CP-Net(Contour-Perturbed Restruction Network)を提案する。
分類では、ModelNet40(92.5%の精度)とScanObjectNN(87.9%の精度)の完全教師付き手法で競合する結果を得る。
論文 参考訳(メタデータ) (2022-01-20T15:04:12Z) - EditVAE: Unsupervised Part-Aware Controllable 3D Point Cloud Shape
Generation [19.817166425038753]
本稿では,パートアウェアポイントクラウド生成の問題に対処する。
変分オートエンコーダの簡単な修正により、点雲自体のジョイントモデルが得られる。
歪んだ表現によって得られる柔軟性に加えて、我々のジョイントモデリングアプローチによって導入された帰納バイアスは、ShapeNetデータセットの最先端の実験結果をもたらす。
論文 参考訳(メタデータ) (2021-10-13T12:38:01Z) - Unsupervised Learning for Cuboid Shape Abstraction via Joint
Segmentation from Point Clouds [8.156355030558172]
複雑な3Dオブジェクトを、形状抽象化として知られる単純な幾何学的原始体として表現することは、幾何学的モデリング、構造解析、形状合成において重要である。
本研究では、点雲をコンパクトな立方体表現にマッピングするための教師なし形状抽象化法を提案する。
論文 参考訳(メタデータ) (2021-06-07T09:15:16Z) - Learning Geometry-Disentangled Representation for Complementary
Understanding of 3D Object Point Cloud [50.56461318879761]
3次元画像処理のためのGDANet(Geometry-Disentangled Attention Network)を提案する。
GDANetは、点雲を3Dオブジェクトの輪郭と平らな部分に切り離し、それぞれ鋭い変化成分と穏やかな変化成分で表される。
3Dオブジェクトの分類とセグメンテーションベンチマークの実験は、GDANetがより少ないパラメータで最先端の処理を実現していることを示している。
論文 参考訳(メタデータ) (2020-12-20T13:35:00Z) - Primal-Dual Mesh Convolutional Neural Networks [62.165239866312334]
本稿では,グラフ・ニューラル・ネットワークの文献からトライアングル・メッシュへ引き起こされた原始双対のフレームワークを提案する。
提案手法は,3次元メッシュのエッジと顔の両方を入力として特徴付け,動的に集約する。
メッシュ単純化の文献から得られたツールを用いて、我々のアプローチに関する理論的知見を提供する。
論文 参考訳(メタデータ) (2020-10-23T14:49:02Z) - A Progressive Conditional Generative Adversarial Network for Generating
Dense and Colored 3D Point Clouds [5.107705550575662]
本研究では,教師なしの方法でオブジェクトの分類を行うために,高密度な3次元点雲をカラーで生成する新しい条件生成対向ネットワークを提案する。
複雑な詳細を高解像度で捉えることの難しさを克服するために,グラフ畳み込みを用いてネットワークを徐々に成長させる点変換器を提案する。
実験の結果,ネットワークは3次元データ分布の学習と模倣が可能であり,複数の解像度で詳細な色付き点雲を生成できることがわかった。
論文 参考訳(メタデータ) (2020-10-12T01:32:13Z) - PT2PC: Learning to Generate 3D Point Cloud Shapes from Part Tree
Conditions [66.87405921626004]
本稿では,シンボル部分木表現から3次元形状点雲の幾何を生成するという新しい問題について検討する。
構造的および幾何学的要因を乱す条件付きGAN "part tree"-to-point cloud"モデル(PT2PC)を提案する。
論文 参考訳(メタデータ) (2020-03-19T08:27:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。