論文の概要: Staying in Shape: Learning Invariant Shape Representations using
Contrastive Learning
- arxiv url: http://arxiv.org/abs/2107.03552v1
- Date: Thu, 8 Jul 2021 00:53:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-09 13:37:49.014869
- Title: Staying in Shape: Learning Invariant Shape Representations using
Contrastive Learning
- Title(参考訳): 形にとどまる:コントラスト学習による不変形表現の学習
- Authors: Jeffrey Gu and Serena Yeung
- Abstract要約: 既存の不変形表現の多くは手作りであり、それまでの学習的形状表現は不変形の生成に重点を置いていなかった。
提案手法は,従来の教師なし学習のap-proacheを,有効性と堅牢性の両方で性能的に向上することを示した。
- 参考スコア(独自算出の注目度): 5.100152971410397
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Creating representations of shapes that are invari-ant to isometric or
almost-isometric transforma-tions has long been an area of interest in shape
anal-ysis, since enforcing invariance allows the learningof more effective and
robust shape representations.Most existing invariant shape representations
arehandcrafted, and previous work on learning shaperepresentations do not focus
on producing invariantrepresentations. To solve the problem of
learningunsupervised invariant shape representations, weuse contrastive
learning, which produces discrimi-native representations through learning
invarianceto user-specified data augmentations. To producerepresentations that
are specifically isometry andalmost-isometry invariant, we propose new
dataaugmentations that randomly sample these transfor-mations. We show
experimentally that our methodoutperforms previous unsupervised learning
ap-proaches in both effectiveness and robustness.
- Abstract(参考訳): 等尺的あるいはほぼ等尺的変換に不適な形状の表現を作成することは、分散を強制することでより効果的で頑健な形状の表現を学習できるため、長い間、形状のアナルイシスに対する関心の領域であった。
教師なし不変な形状表現を学習する問題を解決するため、ユーザ特定データ拡張の学習不変性を通じて識別ネイティブ表現を生成する、weuseコントラスト学習を行う。
等尺および最端等尺不変量を示す表現を生成するために,これらのトランスフォーマレーションをランダムにサンプリングする新しいデータ拡張を提案する。
提案手法は,従来の教師なし学習のap-proachesを有効性と堅牢性の両方において有効活用できることを実験的に示す。
関連論文リスト
- Revealing Multimodal Contrastive Representation Learning through Latent
Partial Causal Models [85.67870425656368]
マルチモーダルデータに特化して設計された統一因果モデルを提案する。
マルチモーダル・コントラスト表現学習は潜在結合変数の同定に優れていることを示す。
実験では、仮定が破られたとしても、我々の発見の堅牢性を示す。
論文 参考訳(メタデータ) (2024-02-09T07:18:06Z) - Interpreting Equivariant Representations [5.325297567945828]
本稿では,同変モデルによる帰納バイアスも潜在表現を用いて考慮する必要があることを示す。
インダクティブバイアスを考慮しないと下流タスクのパフォーマンスが低下することを示す。
論文 参考訳(メタデータ) (2024-01-23T09:43:30Z) - Flow Factorized Representation Learning [109.51947536586677]
本稿では、異なる入力変換を定義する潜在確率パスの別個のセットを規定する生成モデルを提案する。
本モデルは,ほぼ同変モデルに近づきながら,標準表現学習ベンチマークにおいて高い確率を達成することを示す。
論文 参考訳(メタデータ) (2023-09-22T20:15:37Z) - Semantic-Aware Implicit Template Learning via Part Deformation
Consistency [18.63665468429503]
意味論的に妥当な変形を可能にする意味認識型暗黙テンプレート学習フレームワークを提案する。
自己教師付き特徴抽出器からのセマンティクスの事前利用により,新しいセマンティクス対応変形符号を用いた局所条件付けを提案する。
本実験は,様々なタスクにおいて,ベースラインよりも提案手法の方が優れていることを示す。
論文 参考訳(メタデータ) (2023-08-23T05:02:17Z) - Domain Generalization In Robust Invariant Representation [10.132611239890345]
本稿では,分布外データに基づく不変表現の一般化について検討する。
不変モデルは分布シフトに頑健な非構造潜在表現を学習することを示す。
論文 参考訳(メタデータ) (2023-04-07T00:58:30Z) - Leveraging Equivariant Features for Absolute Pose Regression [9.30597356471664]
変換と回転の同変である畳み込みニューラルネットワークは,カメラの動きの表現を直接特徴空間に誘導することを示す。
次に、この幾何学的性質により、画像平面保存変換の全グループの下でトレーニングデータを暗黙的に増大させることができることを示す。
論文 参考訳(メタデータ) (2022-04-05T12:44:20Z) - Topographic VAEs learn Equivariant Capsules [84.33745072274942]
本稿では, 地理的に整理された潜伏変数を用いた深部生成モデルを効率的に学習するための新しい手法であるTopographic VAEを紹介する。
このようなモデルでは,MNIST上での桁数クラス,幅,スタイルなどの健全な特徴に応じて,その活性化を組織化することが実際に学べることが示される。
我々は、既存の群同変ニューラルネットワークの能力を拡張して、複素変換に近似した同値性を示す。
論文 参考訳(メタデータ) (2021-09-03T09:25:57Z) - Augmenting Implicit Neural Shape Representations with Explicit
Deformation Fields [95.39603371087921]
入射神経表現は、ニューラルネットワークのゼロレベルセットとして形状収集を学ぶための最近のアプローチである。
我々は,暗黙的ニューラル表現に対する変形認識正規化を提唱し,遅延コードの変化として可塑性変形を生成することを目的とした。
論文 参考訳(メタデータ) (2021-08-19T22:07:08Z) - SNARF: Differentiable Forward Skinning for Animating Non-Rigid Neural
Implicit Shapes [117.76767853430243]
SNARFは多角形メッシュに対する線形ブレンドスキンの利点とニューラル暗黙表面の利点を組み合わせたものである。
反復ルート探索を用いて任意の変形点のすべての正準対応を探索するフォワードスキンモデルを提案する。
最先端のニューラルネットワークの暗黙的表現と比較すると,このアプローチは,精度を維持しつつ,未認識のポーズを一般化する。
論文 参考訳(メタデータ) (2021-04-08T17:54:59Z) - Learning Disentangled Representations with Latent Variation
Predictability [102.4163768995288]
本稿では,潜在不整合表現の変動予測可能性について述べる。
逆生成プロセス内では、潜時変動と対応する画像対の相互情報を最大化することにより、変動予測可能性を高める。
本研究では,潜在表現の絡み合いを測るために,基礎的構造的生成因子に依存しない評価指標を開発する。
論文 参考訳(メタデータ) (2020-07-25T08:54:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。