論文の概要: ShapeFormer: Transformer-based Shape Completion via Sparse
Representation
- arxiv url: http://arxiv.org/abs/2201.10326v1
- Date: Tue, 25 Jan 2022 13:58:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-26 14:56:32.663934
- Title: ShapeFormer: Transformer-based Shape Completion via Sparse
Representation
- Title(参考訳): shapeformer: スパース表現によるトランスフォーマティブベースのシェイプ補完
- Authors: Xingguang Yan, Liqiang Lin, Niloy J. Mitra, Dani Lischinski, Danny
Cohen-Or, Hui Huang
- Abstract要約: 本稿では,不完全でノイズの多い点雲に条件付きオブジェクト完了の分布を生成するネットワークであるShapeFormerを提案する。
結果の分布をサンプリングして、入力に忠実な状態で、それぞれがもっともらしい形状の詳細を示す、可能性のある完了を生成する。
- 参考スコア(独自算出の注目度): 41.33457875133559
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present ShapeFormer, a transformer-based network that produces a
distribution of object completions, conditioned on incomplete, and possibly
noisy, point clouds. The resultant distribution can then be sampled to generate
likely completions, each exhibiting plausible shape details while being
faithful to the input. To facilitate the use of transformers for 3D, we
introduce a compact 3D representation, vector quantized deep implicit function,
that utilizes spatial sparsity to represent a close approximation of a 3D shape
by a short sequence of discrete variables. Experiments demonstrate that
ShapeFormer outperforms prior art for shape completion from ambiguous partial
inputs in terms of both completion quality and diversity. We also show that our
approach effectively handles a variety of shape types, incomplete patterns, and
real-world scans.
- Abstract(参考訳): 本稿では,不完全かつうるさい点群を条件とした,オブジェクト補完の分布を生成するトランスフォーマネットワークであるshapeformerを提案する。
結果の分布をサンプリングして、おそらく完了し、それぞれが入力に忠実でありながら、妥当な形状の詳細を示すことができる。
3次元へのトランスフォーマーの使用を容易にするために,空間的スパーシティを利用して3次元形状の近接近似を離散変数の短い列で表現する,コンパクトな3次元表現ベクトル量子化深部暗黙関数を導入する。
実験により、シェイプフォーマーは、完成品質と多様性の両方の観点から、あいまいな部分入力から形状完了のための先行技術を上回ることが示されている。
また,本手法は様々な形状タイプ,不完全パターン,実世界のスキャンを効果的に処理することを示す。
関連論文リスト
- Explorable Mesh Deformation Subspaces from Unstructured Generative
Models [53.23510438769862]
3次元形状の深い生成モデルは、しばしば潜在的な変動を探索するために使用できる連続的な潜伏空間を特徴付ける。
本研究では,手軽に探索可能な2次元探索空間から事前学習された生成モデルのサブ空間へのマッピングを構築することで,与えられたランドマーク形状の集合間のバリエーションを探索する手法を提案する。
論文 参考訳(メタデータ) (2023-10-11T18:53:57Z) - DiffComplete: Diffusion-based Generative 3D Shape Completion [114.43353365917015]
3次元レンジスキャンにおける形状完成のための拡散に基づく新しいアプローチを提案する。
私たちはリアリズム、マルチモダリティ、高忠実さのバランスを取ります。
DiffCompleteは2つの大規模3次元形状補完ベンチマークに新しいSOTA性能を設定する。
論文 参考訳(メタデータ) (2023-06-28T16:07:36Z) - Neural Wavelet-domain Diffusion for 3D Shape Generation, Inversion, and
Manipulation [54.09274684734721]
本稿では,ウェーブレット領域における連続的な暗黙表現の直接生成モデルを用いて,3次元形状の生成,反転,操作を行う新しい手法を提案する。
具体的には、1対の粗い係数と細部係数の体積を持つコンパクトなウェーブレット表現を提案し、トランケートされた符号付き距離関数とマルチスケールの生体直交ウェーブレットを介して3次元形状を暗黙的に表現する。
エンコーダネットワークを共同でトレーニングすることで,形状を反転させる潜在空間を学習することができる。
論文 参考訳(メタデータ) (2023-02-01T02:47:53Z) - Probabilistic Implicit Scene Completion [6.954686339092988]
大規模3次元シーンの連続幾何学に拡張した確率的形状補完法を提案する。
生成セルオートマタを用いてマルチモーダル分布を学習し,定式化を変換して大規模連続幾何処理を行う。
実験により,入力に忠実な多彩なシーンを生成できることが確認された。
論文 参考訳(メタデータ) (2022-04-04T06:16:54Z) - Unsupervised 3D Shape Completion through GAN Inversion [116.27680045885849]
本稿では,GAN(Generative Adrial Network)インバージョンを導入したShapeInversionについて紹介する。
ShapeInversionは、与えられた部分入力に最も適した完全な形状を与える潜在コードを探すことで、完全な形状で事前訓練されたGANを使用する。
shapenetベンチマークでは、shapeinversion は sota unsupervised メソッドよりも優れており、ペアデータを用いて学習される教師ありメソッドに匹敵する。
論文 参考訳(メタデータ) (2021-04-27T17:53:46Z) - 3D Shape Generation and Completion through Point-Voxel Diffusion [24.824065748889048]
3次元形状の確率的生成モデリングのための新しいアプローチを提案する。
Point-Voxel Diffusion (PVD) は、無条件形状生成と条件付き多モード形状完成のための統一的確率的定式化である。
PVDは、観測点雲データからガウスノイズへの拡散過程を逆転させ、(条件付き)確率関数に束縛された変動下限を最適化することにより、一連のデノナイズステップと見なすことができる。
論文 参考訳(メタデータ) (2021-04-08T10:38:03Z) - Deep Implicit Templates for 3D Shape Representation [70.9789507686618]
深い暗黙表現における明示的な対応推論を支援する新しい3次元形状表現を提案する。
我々のキーとなる考え方は、テンプレートの暗黙関数の条件変形としてDIFを定式化することである。
提案手法は,形状の集合に対する一般的な暗黙テンプレートを学習するだけでなく,すべての形状を相互に同時に対応させることも可能であることを示す。
論文 参考訳(メタデータ) (2020-11-30T06:01:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。