論文の概要: RISA-Net: Rotation-Invariant Structure-Aware Network for Fine-Grained 3D
Shape Retrieval
- arxiv url: http://arxiv.org/abs/2010.00973v1
- Date: Fri, 2 Oct 2020 13:06:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 02:17:12.870579
- Title: RISA-Net: Rotation-Invariant Structure-Aware Network for Fine-Grained 3D
Shape Retrieval
- Title(参考訳): RISA-Net:微細3次元形状検索のための回転不変構造認識ネットワーク
- Authors: Rao Fu, Jie Yang, Jiawei Sun, Fang-Lue Zhang, Yu-Kun Lai and Lin Gao
- Abstract要約: きめ細かい3D形状の検索は、同じクラスに属するモデルを持つレポジトリのクエリ形状に似た3D形状の検索を目的としている。
回転不変な3次元形状記述子を学習する新しいディープアーキテクチャ RISA-Net を提案する。
本手法は,3次元形状の最終コンパクト潜時特徴を生成する際に,各部分の幾何学的・構造的情報の重要性を学習することができる。
- 参考スコア(独自算出の注目度): 46.02391761751015
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fine-grained 3D shape retrieval aims to retrieve 3D shapes similar to a query
shape in a repository with models belonging to the same class, which requires
shape descriptors to be capable of representing detailed geometric information
to discriminate shapes with globally similar structures. Moreover, 3D objects
can be placed with arbitrary position and orientation in real-world
applications, which further requires shape descriptors to be robust to rigid
transformations. The shape descriptions used in existing 3D shape retrieval
systems fail to meet the above two criteria. In this paper, we introduce a
novel deep architecture, RISA-Net, which learns rotation invariant 3D shape
descriptors that are capable of encoding fine-grained geometric information and
structural information, and thus achieve accurate results on the task of
fine-grained 3D object retrieval. RISA-Net extracts a set of compact and
detailed geometric features part-wisely and discriminatively estimates the
contribution of each semantic part to shape representation. Furthermore, our
method is able to learn the importance of geometric and structural information
of all the parts when generating the final compact latent feature of a 3D shape
for fine-grained retrieval. We also build and publish a new 3D shape dataset
with sub-class labels for validating the performance of fine-grained 3D shape
retrieval methods. Qualitative and quantitative experiments show that our
RISA-Net outperforms state-of-the-art methods on the fine-grained object
retrieval task, demonstrating its capability in geometric detail extraction.
The code and dataset are available at: https://github.com/IGLICT/RisaNET.
- Abstract(参考訳): 微細な3次元形状の検索は,同一クラスに属するモデルを持つリポジトリにおいて,クエリ形状に似た形状の3次元形状を検索することを目的としている。
さらに、3Dオブジェクトは実世界のアプリケーションでは任意の位置と向きで配置できるため、形状記述子は剛体変換に対して堅牢である必要がある。
既存の3次元形状検索システムにおける形状記述は,上記の2つの基準を満たさない。
本稿では, 精密な幾何学的情報や構造情報を符号化可能な回転不変な3次元形状記述子を学習し, 精密な3次元オブジェクト検索のタスクにおいて正確な結果が得られる新しい深層アーキテクチャ RISA-Net を提案する。
RISA-Netは、コンパクトで詳細な幾何学的特徴の集合を部分的に抽出し、各意味部分の形状表現への寄与を識別的に推定する。
さらに,3次元形状の最終コンパクト潜伏特性を生成する際に,各部分の幾何学的・構造的情報の重要性を学習し,詳細な検索を行う。
また,細粒度3d形状検索手法の性能を検証するために,サブクラスラベルを用いた新しい3d形状データセットを構築し,公開する。
質的かつ定量的な実験により,我々のrisa-netは,細粒度オブジェクト検索タスクにおいて最先端の手法よりも優れており,幾何学的詳細抽出におけるその能力を示している。
コードとデータセットは、https://github.com/iglict/risanet。
関連論文リスト
- Geometry-guided Feature Learning and Fusion for Indoor Scene Reconstruction [14.225228781008209]
本稿では3次元シーン再構成のための新しい幾何学的統合機構を提案する。
提案手法は,特徴学習,特徴融合,ネットワーク監視という3段階の3次元幾何学を取り入れている。
論文 参考訳(メタデータ) (2024-08-28T08:02:47Z) - 3D Shape Knowledge Graph for Cross-domain 3D Shape Retrieval [20.880210749809642]
幾何学語」は、組み合わせによって実体を表現する要素成分として機能する。
各3Dまたは2Dエンティティは、その幾何学用語を知識グラフ内に固定することができ、ドメイン間のデータ間のリンクとして機能する。
提案手法の性能をモデルNet40とShapeNetCore55のデータセットで評価した。
論文 参考訳(メタデータ) (2022-10-27T02:51:24Z) - 3D Shape Reconstruction from 2D Images with Disentangled Attribute Flow [61.62796058294777]
単一の2D画像から3D形状を再構築することは難しい作業だ。
従来の手法の多くは3次元再構成作業における意味的属性の抽出に苦慮している。
本稿では,3DAttriFlowを用いて,入力画像の異なる意味レベルから意味的属性を抽出する手法を提案する。
論文 参考訳(メタデータ) (2022-03-29T02:03:31Z) - Discovering 3D Parts from Image Collections [98.16987919686709]
本稿では,2次元画像収集のみによる3次元部分発見の問題に対処する。
そこで我々は,手動で注釈付部品を監督する代わりに,自己監督型アプローチを提案する。
私たちのキーとなる洞察は、前もって新しい部分の形状を学習することで、各部分は、単純な幾何学を持つように制約されたまま、忠実にオブジェクトの形状に適合できるようにします。
論文 参考訳(メタデータ) (2021-07-28T20:29:16Z) - Canonical 3D Deformer Maps: Unifying parametric and non-parametric
methods for dense weakly-supervised category reconstruction [79.98689027127855]
独立オブジェクトの2次元画像の集合から学習できる共通オブジェクトカテゴリの3次元形状の表現を提案する。
提案手法は, パラメトリック変形モデル, 非パラメトリック3次元再構成, 標準埋め込みの概念に基づく新しい手法で構築する。
顔、車、鳥の野生のデータセットを3Dで再現することで、最先端の成果が得られます。
論文 参考訳(メタデータ) (2020-08-28T15:44:05Z) - DSG-Net: Learning Disentangled Structure and Geometry for 3D Shape
Generation [98.96086261213578]
DSG-Netは3次元形状の非交叉構造と幾何学的メッシュ表現を学習するディープニューラルネットワークである。
これは、幾何(構造)を不変に保ちながら構造(幾何学)のような不整合制御を持つ新しい形状生成アプリケーションの範囲をサポートする。
本手法は,制御可能な生成アプリケーションだけでなく,高品質な合成形状を生成できる。
論文 参考訳(メタデータ) (2020-08-12T17:06:51Z) - STD-Net: Structure-preserving and Topology-adaptive Deformation Network
for 3D Reconstruction from a Single Image [27.885717341244014]
単一のビューイメージからの3D再構成は、コンピュータビジョンにおける長年の進歩である。
本稿では,メッシュ表現を用いた3次元モデル再構築のためのSTD-Netを提案する。
ShapeNetの画像による実験結果から, 提案したSTD-Netは, 3Dオブジェクトを再構成する他の最先端手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-03-07T11:02:47Z) - Unsupervised Learning of Intrinsic Structural Representation Points [50.92621061405056]
3次元形状の学習構造は、コンピュータグラフィックスと幾何学処理の分野における根本的な問題である。
本稿では,3次元構造点の形で新しい構造表現を学習するための簡易かつ解釈不能な手法を提案する。
論文 参考訳(メタデータ) (2020-03-03T17:40:00Z) - 3D Shape Segmentation with Geometric Deep Learning [2.512827436728378]
本稿では,部分分割問題としてセグメント化全体を解くために,3次元形状の3次元拡張ビューを生成するニューラルネットワークベースのアプローチを提案する。
提案手法は,公開データセットの3次元形状と,フォトグラム法を用いて再構成した実物体を用いて検証する。
論文 参考訳(メタデータ) (2020-02-02T14:11:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。