論文の概要: Learning Local Pattern Modularization for Point Cloud Reconstruction from Unseen Classes
- arxiv url: http://arxiv.org/abs/2408.14279v2
- Date: Wed, 4 Sep 2024 15:33:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 19:09:05.375318
- Title: Learning Local Pattern Modularization for Point Cloud Reconstruction from Unseen Classes
- Title(参考訳): 目に見えないクラスから点雲再構成のための局所パターンのモジュラー化学習
- Authors: Chao Chen, Yu-Shen Liu, Zhizhong Han,
- Abstract要約: 我々は、クラスに依存しない局所的な事前学習を行い、オブジェクト指向座標系で容易に一般化する。
学習した局所パターンを用いて,各領域を初期再構成した形状にモジュール化する。
本手法は,物体中心座標系における未知のクラスから高忠実度点雲を再構成することができる。
- 参考スコア(独自算出の注目度): 53.6277160912059
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: It is challenging to reconstruct 3D point clouds in unseen classes from single 2D images. Instead of object-centered coordinate system, current methods generalized global priors learned in seen classes to reconstruct 3D shapes from unseen classes in viewer-centered coordinate system. However, the reconstruction accuracy and interpretability are still eager to get improved. To resolve this issue, we introduce to learn local pattern modularization for reconstructing 3D shapes in unseen classes, which achieves both good generalization ability and high reconstruction accuracy. Our insight is to learn a local prior which is class-agnostic and easy to generalize in object-centered coordinate system. Specifically, the local prior is learned via a process of learning and customizing local pattern modularization in seen classes. During this process, we first learn a set of patterns in local regions, which is the basis in the object-centered coordinate system to represent an arbitrary region on shapes across different classes. Then, we modularize each region on an initially reconstructed shape using the learned local patterns. Based on that, we customize the local pattern modularization using the input image by refining the reconstruction with more details. Our method enables to reconstruct high fidelity point clouds from unseen classes in object-centered coordinate system without requiring a large number of patterns or any additional information, such as segmentation supervision or camera poses. Our experimental results under widely used benchmarks show that our method achieves the state-of-the-art reconstruction accuracy for shapes from unseen classes. The code is available at https://github.com/chenchao15/Unseen.
- Abstract(参考訳): 単一の2D画像から見えないクラスの3D点雲を再構築することは困難である。
オブジェクト中心座標系の代わりに、現在の手法は、ビューア中心座標系において見えないクラスから3次元形状を再構成するために、目に見えないクラスで学んだグローバル事前を一般化した。
しかし、再建精度と解釈性は依然として改善が望まれている。
そこで本研究では, 局所パターンのモジュラー化を学習し, 3次元形状を立体的に再構築する手法を提案する。
我々の洞察は、クラスに依存しない局所的な事前学習を、オブジェクト指向座標系において容易に一般化することである。
具体的には、ローカルな事前学習は、ローカルなパターンのモジュール化を学習し、カスタマイズするプロセスを通じて行われる。
この過程で我々はまず,各クラスにまたがる形状の任意の領域を表すために,オブジェクト中心座標系の基本となる局所領域のパターン集合を学習する。
そして、学習した局所パターンを用いて、初期再構成された形状で各領域をモジュール化する。
これに基づいて、より詳細な情報で再構成をすることで、入力画像を用いて局所パターンのモジュール化をカスタマイズする。
本手法では,多数のパターンや,セグメンテーション監視やカメラポーズなどの追加情報を必要とすることなく,オブジェクト中心座標系における未知のクラスから高忠実度点雲を再構成することができる。
広範に用いられているベンチマーク実験の結果,本手法は未知のクラスからの形状に対する最先端の復元精度を達成できることが示唆された。
コードはhttps://github.com/chenchao15/Unseen.comから入手できる。
関連論文リスト
- Self-supervised 3D Point Cloud Completion via Multi-view Adversarial Learning [61.14132533712539]
我々は、オブジェクトレベルとカテゴリ固有の幾何学的類似性の両方を効果的に活用するフレームワークであるMAL-SPCを提案する。
私たちのMAL-SPCは3Dの完全な監視を一切必要とせず、各オブジェクトに1つの部分点クラウドを必要とするだけです。
論文 参考訳(メタデータ) (2024-07-13T06:53:39Z) - Single-view 3D Mesh Reconstruction for Seen and Unseen Categories [69.29406107513621]
シングルビュー3Dメッシュ再構成は、シングルビューRGB画像から3D形状を復元することを目的とした、基本的なコンピュータビジョンタスクである。
本稿では,一視点3Dメッシュ再構成に取り組み,未知のカテゴリのモデル一般化について検討する。
我々は、再構築におけるカテゴリ境界を断ち切るために、エンドツーエンドの2段階ネットワークであるGenMeshを提案する。
論文 参考訳(メタデータ) (2022-08-04T14:13:35Z) - Fine-Grained Object Classification via Self-Supervised Pose Alignment [42.55938966190932]
我々は,クラス間の自己教師型ポーズアライメントのための局所部分のグローバルな構成を明らかにするために,新しいグラフベースのオブジェクト表現を学習する。
提案手法を3つの評価対象分類ベンチマークで評価し,最先端性能を継続的に達成した。
論文 参考訳(メタデータ) (2022-03-30T01:46:19Z) - Fostering Generalization in Single-view 3D Reconstruction by Learning a
Hierarchy of Local and Global Shape Priors [44.30810194297426]
単一視点の3dオブジェクトの再構築は大きな進歩を遂げているが、訓練中に目に見えない新しい形状に一般化する手法はいまだに苦戦している。
一般的なアプローチは、主に学習されたグローバルシェイプの優先順位に依存し、したがって、詳細なローカル観察を無視します。
局所前置法を活用すれば,入力観測を効率的に利用することが可能となり,新しい形状の可視領域の一般化が向上する。
論文 参考訳(メタデータ) (2021-04-01T14:04:48Z) - RfD-Net: Point Scene Understanding by Semantic Instance Reconstruction [19.535169371240073]
本稿では,高密度物体表面を直接点雲から検出・再構成するRfD-Netを提案する。
インスタンス再構成を大域的オブジェクトローカライゼーションと局所形状予測に分離する。
我々のアプローチは、オブジェクト再構成において、最先端の技術を一貫して上回り、メッシュIoUの11以上を改善します。
論文 参考訳(メタデータ) (2020-11-30T12:58:05Z) - A Divide et Impera Approach for 3D Shape Reconstruction from Multiple
Views [49.03830902235915]
物体の3次元形状を1つまたは複数の画像から推定することは、最近のディープラーニングによるブレークスルーによって人気を集めている。
本稿では,与えられた視点からの可視情報を統合することで,視点変化の再構築に頼ることを提案する。
提案手法を検証するために,相対的なポーズ推定と3次元形状再構成の観点から,ShapeNet参照ベンチマークの総合評価を行った。
論文 参考訳(メタデータ) (2020-11-17T09:59:32Z) - Neural Subdivision [58.97214948753937]
本稿では,データ駆動型粗粒度モデリングの新しいフレームワークであるNeural Subdivisionを紹介する。
すべてのローカルメッシュパッチで同じネットワーク重みのセットを最適化するため、特定の入力メッシュや固定属、カテゴリに制約されないアーキテクチャを提供します。
単一の高分解能メッシュでトレーニングしても,本手法は新規な形状に対して合理的な区分を生成する。
論文 参考訳(メタデータ) (2020-05-04T20:03:21Z) - A Rotation-Invariant Framework for Deep Point Cloud Analysis [132.91915346157018]
ネットワーク入力時に一般的な3次元カルト座標を置き換えるために,新しい低レベル純粋回転不変表現を導入する。
また,これらの表現を特徴に組み込むネットワークアーキテクチャを提案し,点とその近傍の局所的関係とグローバルな形状構造を符号化する。
本手法は, 形状分類, 部分分割, 形状検索を含む多点雲解析タスクにおいて評価する。
論文 参考訳(メタデータ) (2020-03-16T14:04:45Z) - Unsupervised Learning of Intrinsic Structural Representation Points [50.92621061405056]
3次元形状の学習構造は、コンピュータグラフィックスと幾何学処理の分野における根本的な問題である。
本稿では,3次元構造点の形で新しい構造表現を学習するための簡易かつ解釈不能な手法を提案する。
論文 参考訳(メタデータ) (2020-03-03T17:40:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。