論文の概要: Canonical Capsules: Unsupervised Capsules in Canonical Pose
- arxiv url: http://arxiv.org/abs/2012.04718v1
- Date: Tue, 8 Dec 2020 20:13:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 21:42:35.005788
- Title: Canonical Capsules: Unsupervised Capsules in Canonical Pose
- Title(参考訳): Canonical Capsules: Ansupervised Capsules in Canonical Pose
- Authors: Weiwei Sun, Andrea Tagliasacchi, Boyang Deng, Sara Sabour, Soroosh
Yazdani, Geoffrey Hinton, Kwang Moo Yi
- Abstract要約: 3dポイントクラウドのための教師なしカプセルアーキテクチャを提案する。
物体のカプセル分解を順列同値な注意を通して計算し,ランダムに回転する物体のペアを訓練することで自己監視を行う。
オブジェクト中心の表現を教師なしの方法で学習することにより、最新の3Dポイントクラウド再構築、登録、および監督なしの分類を上回ります。
- 参考スコア(独自算出の注目度): 31.529908150084626
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose an unsupervised capsule architecture for 3D point clouds. We
compute capsule decompositions of objects through permutation-equivariant
attention, and self-supervise the process by training with pairs of randomly
rotated objects. Our key idea is to aggregate the attention masks into semantic
keypoints, and use these to supervise a decomposition that satisfies the
capsule invariance/equivariance properties. This not only enables the training
of a semantically consistent decomposition, but also allows us to learn a
canonicalization operation that enables object-centric reasoning. In doing so,
we require neither classification labels nor manually-aligned training datasets
to train. Yet, by learning an object-centric representation in an unsupervised
manner, our method outperforms the state-of-the-art on 3D point cloud
reconstruction, registration, and unsupervised classification. We will release
the code and dataset to reproduce our results as soon as the paper is
published.
- Abstract(参考訳): 3dポイントクラウドのための教師なしカプセルアーキテクチャを提案する。
物体のカプセル分解を順列同値な注意を通して計算し,ランダムに回転する物体のペアを訓練することで自己監視を行う。
私たちの重要なアイデアは、アテンションマスクをセマンティックキーポイントに集約し、カプセルの不分散/共分散特性を満たす分解を監督することです。
これは意味的に一貫した分解のトレーニングを可能にするだけでなく、オブジェクト中心の推論を可能にする標準化操作を学べる。
そのためには、分類ラベルや手作業によるトレーニングデータセットのトレーニングは必要ありません。
しかし、オブジェクト中心の表現を教師なしで学習することにより、3Dポイントクラウドの再構築、登録、教師なし分類における最先端の手法よりも優れる。
論文が公開されたらすぐに結果を再現するためのコードとデータセットをリリースします。
関連論文リスト
- The Triad of Failure Modes and a Possible Way Out [7.977229957867868]
本稿では,障害モードの回避を目的とした,クラスタベースの自己教師型学習(SSL)のための新たな目的関数を提案する。
この目的は、(i)表現崩壊を罰する生成項、(ii)データ拡張への不変性を促進する用語、(ii)クラスタ崩壊を罰する統一項の3つの主要な構成要素から構成される。
論文 参考訳(メタデータ) (2023-09-27T05:54:14Z) - Piecewise Planar Hulls for Semi-Supervised Learning of 3D Shape and Pose
from 2D Images [133.68032636906133]
本研究では,1つの2次元画像から,物体の3次元形状とポーズをキーポイントで推定する問題について検討する。
形状とポーズは、カテゴリによって収集された画像と、その部分的な2Dキーポイントアノテーションから直接学習される。
論文 参考訳(メタデータ) (2022-11-14T16:18:11Z) - Data Augmentation-free Unsupervised Learning for 3D Point Cloud
Understanding [61.30276576646909]
ソフトクラスタリング(SoftClu)と呼ばれる,移動可能な点レベルの特徴を学習するための,ポイントクラウドに対する拡張不要な教師なしアプローチを提案する。
我々は,クラスタに対するポイントのアフィリエイトをプロキシとして利用し,擬似ラベル予測タスクを通じて自己学習を可能にする。
論文 参考訳(メタデータ) (2022-10-06T10:18:16Z) - Self-Supervised Point Cloud Representation Learning with Occlusion
Auto-Encoder [63.77257588569852]
本稿では,3D Occlusion Auto-Encoder(3D-OAE)を提案する。
私たちのキーとなるアイデアは、入力ポイントクラウドのローカルパッチをランダムに排除し、隠されたパッチを復元することで監督を確立することです。
従来の手法とは対照的に、我々の3D-OAEは大量のパッチを除去し、少数の可視パッチでしか予測できない。
論文 参考訳(メタデータ) (2022-03-26T14:06:29Z) - ConDor: Self-Supervised Canonicalization of 3D Pose for Partial Shapes [55.689763519293464]
ConDorは、完全および部分的な3次元点雲の3次元配向と位置を正準化することを学ぶ自己教師型手法である。
推測中,本手法は任意のポーズで完全あるいは部分的な3次元点の雲を抽出し,同変正則のポーズを出力する。
論文 参考訳(メタデータ) (2022-01-19T18:57:21Z) - Unsupervised Representation Learning for 3D Point Cloud Data [66.92077180228634]
我々は、教師なしのポイントクラウド学習に対して、シンプルで効果的なアプローチを提案する。
特に、原点雲の優れたコントラストバージョンを生成する非常に有用な変換を同定する。
本研究では,3次元オブジェクト分類,形状部分分割,シーン分割の3つの下流タスクについて実験を行った。
論文 参考訳(メタデータ) (2021-10-13T10:52:45Z) - Learning 3D Dense Correspondence via Canonical Point Autoencoder [108.20735652143787]
同一カテゴリの3次元形状間の密接な対応を予測できる標準点オートエンコーダ(CPAE)を提案する。
オートエンコーダは、2つの重要な機能を実行する: (a) 任意に順序付けられた点雲を標準プリミティブに符号化し、 (b) プリミティブを元の入力インスタンス形状に復号する。
論文 参考訳(メタデータ) (2021-07-10T15:54:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。