論文の概要: Compositionally Generalizable 3D Structure Prediction
- arxiv url: http://arxiv.org/abs/2012.02493v3
- Date: Thu, 22 Apr 2021 02:15:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-23 08:00:05.584842
- Title: Compositionally Generalizable 3D Structure Prediction
- Title(参考訳): 合成一般化可能な3次元構造予測
- Authors: Songfang Han, Jiayuan Gu, Kaichun Mo, Li Yi, Siyu Hu, Xuejin Chen, Hao
Su
- Abstract要約: シングルイメージの3次元形状復元はコンピュータビジョンにおいて重要かつ長年の課題である。
未知のオブジェクトカテゴリをより一般化できる新しいフレームワークを提案する。
PartNetの実験では、最先端技術よりも優れたパフォーマンスを実現しています。
- 参考スコア(独自算出の注目度): 41.641683644620464
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Single-image 3D shape reconstruction is an important and long-standing
problem in computer vision. A plethora of existing works is constantly pushing
the state-of-the-art performance in the deep learning era. However, there
remains a much more difficult and under-explored issue on how to generalize the
learned skills over unseen object categories that have very different shape
geometry distributions. In this paper, we bring in the concept of compositional
generalizability and propose a novel framework that could better generalize to
these unseen categories. We factorize the 3D shape reconstruction problem into
proper sub-problems, each of which is tackled by a carefully designed neural
sub-module with generalizability concerns. The intuition behind our formulation
is that object parts (slates and cylindrical parts), their relationships
(adjacency and translation symmetry), and shape substructures (T-junctions and
a symmetric group of parts) are mostly shared across object categories, even
though object geometries may look very different (e.g. chairs and cabinets).
Experiments on PartNet show that we achieve superior performance than
state-of-the-art. This validates our problem factorization and network designs.
- Abstract(参考訳): シングルイメージの3次元形状復元はコンピュータビジョンにおいて重要かつ長年の課題である。
多くの既存の作品が、ディープラーニング時代の最先端のパフォーマンスを常に押し付けている。
しかしながら、形状幾何分布が全く異なる未発見のオブジェクトカテゴリに対して、学習スキルを一般化する方法に関して、より困難で未検討の課題が残されている。
本稿では,合成汎化可能性の概念を取り入れ,これらの未知のカテゴリをよりよく一般化できる新しい枠組みを提案する。
本研究では,3次元形状復元問題を適切な部分問題に分解し,それらの問題を一般化可能性に配慮した神経サブモジュールで解決する。
私たちの定式化の背景にある直観は、対象部分(スレートと円筒部分)、それらの関係(隣接性と変換対称性)、および形状部分構造(t-接合と対称部分のグループ)は、オブジェクトのジオメトリが全く異なるように見えるにもかかわらず、ほとんどが対象のカテゴリ間で共有されていることである。
椅子とキャビネット)。
PartNetの実験では、最先端技術よりも優れたパフォーマンスを実現しています。
これは、問題要因化とネットワーク設計を検証する。
関連論文リスト
- StructRe: Rewriting for Structured Shape Modeling [63.792684115318906]
本稿では,構造化形状モデリングの新しいアプローチとして,構造書換えシステムであるStructReを提案する。
ポイントとコンポーネントで表される3Dオブジェクトが与えられたら、StructReはそれを上向きに、より簡潔な構造に書き直すか、より詳細な構造に書き直すことができる。
論文 参考訳(メタデータ) (2023-11-29T10:35:00Z) - Single-view 3D Mesh Reconstruction for Seen and Unseen Categories [69.29406107513621]
シングルビュー3Dメッシュ再構成は、シングルビューRGB画像から3D形状を復元することを目的とした、基本的なコンピュータビジョンタスクである。
本稿では,一視点3Dメッシュ再構成に取り組み,未知のカテゴリのモデル一般化について検討する。
我々は、再構築におけるカテゴリ境界を断ち切るために、エンドツーエンドの2段階ネットワークであるGenMeshを提案する。
論文 参考訳(メタデータ) (2022-08-04T14:13:35Z) - DSG-Net: Learning Disentangled Structure and Geometry for 3D Shape
Generation [98.96086261213578]
DSG-Netは3次元形状の非交叉構造と幾何学的メッシュ表現を学習するディープニューラルネットワークである。
これは、幾何(構造)を不変に保ちながら構造(幾何学)のような不整合制御を持つ新しい形状生成アプリケーションの範囲をサポートする。
本手法は,制御可能な生成アプリケーションだけでなく,高品質な合成形状を生成できる。
論文 参考訳(メタデータ) (2020-08-12T17:06:51Z) - A Study of Compositional Generalization in Neural Models [22.66002315559978]
本稿では,合成概念や関係概念から画像を生成するConceptWorldを紹介する。
我々は、合成論と関係を一般化する標準ニューラルネットワークの能力をテストする実験を行う。
単純な問題に対して、すべてのモデルは閉じた概念によく一般化するが、より長い構成的連鎖に苦しむ。
論文 参考訳(メタデータ) (2020-06-16T18:29:58Z) - Fine-Grained 3D Shape Classification with Hierarchical Part-View
Attentions [70.0171362989609]
本稿では,FG3D-Netと呼ばれる新しい3次元形状分類手法を提案する。
詳細な3次元形状データセットに基づく結果から,本手法が他の最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-05-26T06:53:19Z) - Learning Unsupervised Hierarchical Part Decomposition of 3D Objects from
a Single RGB Image [102.44347847154867]
プリミティブの集合として3次元オブジェクトの幾何を共同で復元できる新しい定式化を提案する。
我々のモデルは、プリミティブのバイナリツリーの形で、様々なオブジェクトの高レベルな構造的分解を復元する。
ShapeNet と D-FAUST のデータセットを用いた実験により,部品の組織化を考慮すれば3次元形状の推論が容易になることが示された。
論文 参考訳(メタデータ) (2020-04-02T17:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。