論文の概要: 3D Meta Point Signature: Learning to Learn 3D Point Signature for 3D
Dense Shape Correspondence
- arxiv url: http://arxiv.org/abs/2010.11159v1
- Date: Wed, 21 Oct 2020 17:27:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 00:26:24.628007
- Title: 3D Meta Point Signature: Learning to Learn 3D Point Signature for 3D
Dense Shape Correspondence
- Title(参考訳): 3dメタポイントシグネチャ:3d高密度形状対応のための3dポイントシグネチャの学習
- Authors: Hao Huang, Lingjing Wang, Xiang Li, Yi Fang
- Abstract要約: 3Dmetapointsignature (MEPS)ネットワークは、3次元形状のロバストポイントシグネチャを学習することができる。
MEPSは、ベースシグネチャ学習者とメタシグネチャ学習者という2つのモジュールから構成される。
本研究では, FAUST と TOSCA の2つのデータセット上での MEPS モデルの評価を行った。
- 参考スコア(独自算出の注目度): 17.803639894961663
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Point signature, a representation describing the structural neighborhood of a
point in 3D shapes, can be applied to establish correspondences between points
in 3D shapes. Conventional methods apply a weight-sharing network, e.g., any
kind of graph neural networks, across all neighborhoods to directly generate
point signatures and gain the generalization ability by extensive training over
a large amount of training samples from scratch. However, these methods lack
the flexibility in rapidly adapting to unseen neighborhood structures and thus
generalizes poorly on new point sets. In this paper, we propose a novel
meta-learning based 3D point signature model, named 3Dmetapointsignature (MEPS)
network, that is capable of learning robust point signatures in 3D shapes. By
regarding each point signature learning process as a task, our method obtains
an optimized model over the best performance on the distribution of all tasks,
generating reliable signatures for new tasks, i.e., signatures of unseen point
neighborhoods. Specifically, the MEPS consists of two modules: a base signature
learner and a meta signature learner. During training, the base-learner is
trained to perform specific signature learning tasks. In the meantime, the
meta-learner is trained to update the base-learner with optimal parameters.
During testing, the meta-learner that is learned with the distribution of all
tasks can adaptively change parameters of the base-learner, accommodating to
unseen local neighborhoods. We evaluate the MEPS model on two datasets, e.g.,
FAUST and TOSCA, for dense 3Dshape correspondence. Experimental results
demonstrate that our method not only gains significant improvements over the
baseline model and achieves state-of-the-art results, but also is capable of
handling unseen 3D shapes.
- Abstract(参考訳): 点シグネチャ(ポイントシグネチャ)は、3次元形状の点の構造的近傍を表す表現であり、3次元形状の点間の対応を確立するために用いられる。
従来の方法では、例えば任意のグラフニューラルネットワークのような重量共有ネットワークを適用して、すべての地区でポイントシグネチャを直接生成し、スクラッチから大量のトレーニングサンプルを広範囲にトレーニングすることで一般化能力を得る。
しかし、これらの手法は目に見えない近傍構造に迅速に適応する柔軟性を欠いており、新しい点集合の一般化が不十分である。
本稿では,3次元形状のロバストな点シグネチャを学習できる3dmetapointsignature(meps)ネットワークという,新しいメタラーニング型3dポイントシグネチャモデルを提案する。
各ポイントシグネチャ学習プロセスをタスクとして扱うことにより、すべてのタスクの分散における最高のパフォーマンスよりも最適化されたモデルを求め、新しいタスク、すなわち、目に見えないポイント近傍のシグネチャに対して信頼できるシグネチャを生成する。
具体的には、MEPSはベースシグネチャ学習者とメタシグネチャ学習者という2つのモジュールから構成される。
トレーニング中、base-learnerは特定のシグネチャ学習タスクを実行するように訓練される。
その間、メタリーナーは最適なパラメータでベースリーナーを更新するように訓練される。
テスト中、すべてのタスクの分散で学習されるメタリーナーは、ベースリーナーのパラメータを適応的に変更し、見えないローカルな近傍に適応することができる。
本研究では, FAUST と TOSCA の2つのデータセット上での MEPS モデルの評価を行った。
実験結果から,本手法はベースラインモデルよりも大幅に改善され,最先端の結果が得られるだけでなく,見えない3次元形状も扱えることがわかった。
関連論文リスト
- Bayesian Self-Training for Semi-Supervised 3D Segmentation [59.544558398992386]
3Dセグメンテーションはコンピュータビジョンの中核的な問題である。
完全に教師されたトレーニングを採用するために、3Dポイントクラウドを密にラベル付けすることは、労働集約的で高価です。
半教師付きトレーニングは、ラベル付きデータの小さなセットのみを付与し、より大きなラベル付きデータセットを伴って、より実用的な代替手段を提供する。
論文 参考訳(メタデータ) (2024-09-12T14:54:31Z) - PointSeg: A Training-Free Paradigm for 3D Scene Segmentation via Foundation Models [51.24979014650188]
我々は、市販の視覚基盤モデルを利用して、3Dシーン認識タスクに対処する学習自由パラダイムであるPointSegを提案する。
PointSegは正確な3Dプロンプトを取得してフレーム間で対応するピクセルを調整することで、任意の3Dシーンを分割することができる。
ScanNet、ScanNet++、KITTI-360データセット上の14.1$%、12.3$%、12.6$%のmAPは、最先端のトレーニングフリーモデルを大きく上回っている。
論文 参考訳(メタデータ) (2024-03-11T03:28:20Z) - You Only Need One Thing One Click: Self-Training for Weakly Supervised
3D Scene Understanding [107.06117227661204]
私たちはOne Thing One Click''を提案する。つまり、アノテーションはオブジェクトごとに1つのポイントをラベル付けするだけです。
グラフ伝搬モジュールによって促進されるトレーニングとラベル伝搬を反復的に行う。
我々のモデルは、ポイントクラスタリング戦略を備えた3Dインスタンスセグメンテーションと互換性がある。
論文 参考訳(メタデータ) (2023-03-26T13:57:00Z) - 3D-model ShapeNet Core Classification using Meta-Semantic Learning [3.6155032398048297]
与えられた3次元データポイントのセマンティック次元を研究し,メタセマンティックラーニング(Meta-SeL)と呼ばれる効率的な手法を提案する。
その結果,Meta-SeLは他の複雑な最先端技術と比較すると,競争性能が向上することが示唆された。
ランダムシャッフル不変であるMeta-SeLは、ジッタリングノイズと同様に翻訳に耐性がある。
論文 参考訳(メタデータ) (2022-05-28T15:40:10Z) - MetaSets: Meta-Learning on Point Sets for Generalizable Representations [100.5981809166658]
本稿では,3次元領域一般化(DDG)の新たな課題について検討し,学習過程においてそれらにアクセスすることなく,他の目に見えない点雲の領域にモデルを一般化することを目的とする。
本稿ではメタセットを用いてこの問題に対処することを提案する。メタ学習は、慎重に設計された変換された点集合上の分類タスク群からポイントクラウド表現を抽出する。
実験結果から,MetaSetsは既存の3次元深層学習手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2022-04-15T03:24:39Z) - Point Discriminative Learning for Unsupervised Representation Learning
on 3D Point Clouds [54.31515001741987]
3次元点雲上での教師なし表現学習のための点識別学習法を提案する。
我々は、中間レベルとグローバルレベルの特徴に新しい点識別損失を課すことにより、これを達成した。
提案手法は強力な表現を学習し,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2021-08-04T15:11:48Z) - One Thing One Click: A Self-Training Approach for Weakly Supervised 3D
Semantic Segmentation [78.36781565047656]
私たちは、アノテーションーがオブジェクトごとに1ポイントだけラベルを付ける必要があることを意味する「One Thing One Click」を提案します。
グラフ伝搬モジュールによって促進されるトレーニングとラベル伝搬を反復的に行う。
私たちの結果は、完全に監督されたものと同等です。
論文 参考訳(メタデータ) (2021-04-06T02:27:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。