論文の概要: PatchNets: Patch-Based Generalizable Deep Implicit 3D Shape
Representations
- arxiv url: http://arxiv.org/abs/2008.01639v2
- Date: Fri, 5 Feb 2021 13:32:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 00:57:36.461180
- Title: PatchNets: Patch-Based Generalizable Deep Implicit 3D Shape
Representations
- Title(参考訳): PatchNets: パッチベースで一般化可能な3D形状表現
- Authors: Edgar Tretschk, Ayush Tewari, Vladislav Golyanik, Michael Zollh\"ofer,
Carsten Stoll, Christian Theobalt
- Abstract要約: 物体認識訓練のための中級パッチベースサーフェス表現を提案する。
形状や部分点雲の完全化など,新しい表現の応用例をいくつか紹介する。
- 参考スコア(独自算出の注目度): 75.42959184226702
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Implicit surface representations, such as signed-distance functions, combined
with deep learning have led to impressive models which can represent detailed
shapes of objects with arbitrary topology. Since a continuous function is
learned, the reconstructions can also be extracted at any arbitrary resolution.
However, large datasets such as ShapeNet are required to train such models. In
this paper, we present a new mid-level patch-based surface representation. At
the level of patches, objects across different categories share similarities,
which leads to more generalizable models. We then introduce a novel method to
learn this patch-based representation in a canonical space, such that it is as
object-agnostic as possible. We show that our representation trained on one
category of objects from ShapeNet can also well represent detailed shapes from
any other category. In addition, it can be trained using much fewer shapes,
compared to existing approaches. We show several applications of our new
representation, including shape interpolation and partial point cloud
completion. Due to explicit control over positions, orientations and scales of
patches, our representation is also more controllable compared to object-level
representations, which enables us to deform encoded shapes non-rigidly.
- Abstract(参考訳): 符号付き距離関数や深層学習などの入射曲面表現は、任意の位相を持つ物体の詳細な形状を表現できる印象的なモデルを生み出している。
連続関数が学習されるので、任意の解像度で再構成を抽出することもできる。
しかし、そのようなモデルをトレーニングするには、ShapeNetのような大規模なデータセットが必要である。
本稿では,新しい中レベルのパッチベース表面表現を提案する。
パッチのレベルでは、異なるカテゴリにわたるオブジェクトは類似性を共有し、より一般化可能なモデルをもたらす。
次に、このパッチベースの表現を標準空間で学習する新しい手法を導入し、可能な限りオブジェクトに依存しない。
また、ShapeNetからトレーニングしたオブジェクトのカテゴリの表現は、他のカテゴリの詳細な形状を表現できることを示す。
さらに、既存のアプローチに比べてはるかに少ない形状でトレーニングすることができる。
形状補間や部分点クラウド補完など,新しい表現の応用例をいくつか紹介する。
パッチの位置、向き、スケールの明示的な制御により、我々の表現はオブジェクトレベルの表現よりも制御可能であるため、エンコードされた形状を非厳密に変形することができる。
関連論文リスト
- WrappingNet: Mesh Autoencoder via Deep Sphere Deformation [10.934595072086324]
WrappingNetは、異種オブジェクト上の一般メッシュ教師なし学習を可能にする最初のメッシュオートエンコーダである。
メッシュ接続性を表現するためのボトルネックとして,新たなベースグラフが導入されている。
オブジェクト形状を表す共有潜在空間の学習を容易にすることが示されている。
論文 参考訳(メタデータ) (2023-08-29T16:13:04Z) - Self-supervised Learning of Implicit Shape Representation with Dense
Correspondence for Deformable Objects [26.102490905989338]
変形可能な物体に対する暗黙的形状表現を学習するための,新しい自己教師型アプローチを提案する。
本手法は, 骨格と皮膚の重量の先行を必要とせず, 符号付き距離場で表現される形状の収集のみを必要とする。
我々のモデルは大きな変形を伴う形状を表現することができ、テクスチャ転送や形状編集といった2つの典型的な応用をサポートすることができる。
論文 参考訳(メタデータ) (2023-08-24T06:38:33Z) - Category-level Shape Estimation for Densely Cluttered Objects [94.64287790278887]
そこで本研究では,密に散らばった物体のカテゴリレベルの形状推定手法を提案する。
我々のフレームワークは、多視点視覚情報融合によって、各オブジェクトをクラッタに分割する。
シミュレーション環境と実世界の実験から,本手法が高精度な形状推定を実現することが示された。
論文 参考訳(メタデータ) (2023-02-23T13:00:17Z) - PatchRD: Detail-Preserving Shape Completion by Learning Patch Retrieval
and Deformation [59.70430570779819]
本稿では,3次元形状の欠落領域の幾何学的詳細化に焦点を当てたデータ駆動型形状補完手法を提案する。
私たちの重要な洞察は、部分的な入力から完全な欠落したリージョンへのパッチのコピーとデフォームです。
部分的な入力からパッチを抽出することで繰り返しパターンを活用し、ニューラルネットワークを用いてグローバルな構造的先行点を学習し、検索と変形の手順を導出する。
論文 参考訳(メタデータ) (2022-07-24T18:59:09Z) - Latent Partition Implicit with Surface Codes for 3D Representation [54.966603013209685]
一つの3次元形状を潜在空間の部品の集合として表現する新しい暗黙表現を導入する。
我々は,グローバルな形状モデリングを複数の局所的な部分モデリングにキャストする能力から,Latent Partition Implicit (LPI) と名付けた。
論文 参考訳(メタデータ) (2022-07-18T14:24:46Z) - CIGMO: Categorical invariant representations in a deep generative
framework [4.111899441919164]
我々は、画像データからカテゴリ、形状、およびビューファクターを表現することを学ぶことができる、CIGMOと呼ばれる新しい深層生成モデルを導入する。
実験により,大きな視界変動にもかかわらず,対象形状のカテゴリを効果的に発見できることが示唆された。
論文 参考訳(メタデータ) (2022-05-27T04:21:22Z) - Representing Shape Collections with Alignment-Aware Linear Models [17.635846912560627]
3次元点雲の古典的表現を線形形状モデルとして再考する。
私たちの重要な洞察は、ディープラーニングを活用して、アフィン変換として形状の集合を表現することです。
論文 参考訳(メタデータ) (2021-09-03T16:28:34Z) - 3D Object Classification on Partial Point Clouds: A Practical
Perspective [91.81377258830703]
点雲は3次元オブジェクト分類において一般的な形状表現である。
本稿では,任意のポーズの下でオブジェクトインスタンスの部分点雲を分類する実践的な設定を提案する。
本稿では,アライメント分類手法による新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-18T04:00:56Z) - Learning Generative Models of Shape Handles [43.41382075567803]
ハンドセットとして3次元形状を合成する生成モデルを提案する。
我々のモデルは、様々な濃度と異なる種類のハンドルを持つハンドセットを生成することができる。
得られた形状表現は直感的であり,従来の最先端技術よりも優れた品質が得られることを示す。
論文 参考訳(メタデータ) (2020-04-06T22:35:55Z) - DualSDF: Semantic Shape Manipulation using a Two-Level Representation [54.62411904952258]
本稿では,2段階の粒度で形状を表現するDualSDFと,抽象化されたプロキシ形状を表すDualSDFを提案する。
我々の2段階モデルでは、ユーザが対話的に粗いプロキシの形状を操作でき、その変化を即座に高解像度の形状に反映できる新しい形状操作技術が生み出される。
論文 参考訳(メタデータ) (2020-04-06T17:59:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。