論文の概要: Self-supervised Latent Space Optimization with Nebula Variational Coding
- arxiv url: http://arxiv.org/abs/2506.01414v1
- Date: Mon, 02 Jun 2025 08:13:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 01:42:09.288918
- Title: Self-supervised Latent Space Optimization with Nebula Variational Coding
- Title(参考訳): 星雲変動符号化による自己教師付き潜時空間最適化
- Authors: Yida Wang, David Joseph Tan, Nassir Navab, Federico Tombari,
- Abstract要約: 本稿では,クラスタ化埋め込みに繋がる変分推論モデルを提案する。
textbfnebula anchorsと呼ばれる潜伏空間に新たな変数を導入し、トレーニング中に潜伏変数がクラスタを形成するように誘導する。
各潜在機能は最も近いアンカーでラベル付けできるため、クラスタ間の分離をより明確にするために、自己教師付き方法でメートル法学習を適用することも提案する。
- 参考スコア(独自算出の注目度): 87.20343320266215
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning approaches process data in a layer-by-layer way with intermediate (or latent) features. We aim at designing a general solution to optimize the latent manifolds to improve the performance on classification, segmentation, completion and/or reconstruction through probabilistic models. This paper proposes a variational inference model which leads to a clustered embedding. We introduce additional variables in the latent space, called \textbf{nebula anchors}, that guide the latent variables to form clusters during training. To prevent the anchors from clustering among themselves, we employ the variational constraint that enforces the latent features within an anchor to form a Gaussian distribution, resulting in a generative model we refer as Nebula Variational Coding (NVC). Since each latent feature can be labeled with the closest anchor, we also propose to apply metric learning in a self-supervised way to make the separation between clusters more explicit. As a consequence, the latent variables of our variational coder form clusters which adapt to the generated semantic of the training data, \textit{e.g.} the categorical labels of each sample. We demonstrate experimentally that it can be used within different architectures designed to solve different problems including text sequence, images, 3D point clouds and volumetric data, validating the advantage of our proposed method.
- Abstract(参考訳): ディープラーニングは、中間的(あるいは潜在的)機能を備えたレイヤ・バイ・レイヤの方法でデータを処理します。
本研究では,潜在多様体を最適化し,分類,分割,完成,および確率モデルによる再構成の性能を向上させるための一般解を設計することを目的とする。
本稿では,クラスタ化埋め込みに繋がる変分推論モデルを提案する。
我々は、学習中に潜在変数がクラスタを形成するように誘導する潜在変数である「textbf{nebula anchors}」という潜時空間に新たな変数を導入する。
アンカー間のクラスタリングを防止するため,アンカー内の潜伏特徴を強制する変動制約を用いてガウス分布を形成し,ネビュラ変分符号化(Nebula Variational Coding, NVC)と呼ばれる生成モデルを作成する。
各潜在機能は最も近いアンカーでラベル付けできるため、クラスタ間の分離をより明確にするために、自己教師付き方法でメートル法学習を適用することも提案する。
結果として、我々の変分コーダの潜伏変数は、トレーニングデータの生成されたセマンティクスに適応するクラスタを形成します。
本研究では,テキストシーケンス,画像,3Dポイントクラウド,ボリュームデータなど,さまざまな問題を解決するために設計された異なるアーキテクチャ内で使用できることを実験的に実証し,提案手法の利点を検証した。
関連論文リスト
- Distributional Reduction: Unifying Dimensionality Reduction and Clustering with Gromov-Wasserstein [56.62376364594194]
教師なし学習は、潜在的に大きな高次元データセットの基盤構造を捉えることを目的としている。
本研究では、最適輸送のレンズの下でこれらのアプローチを再検討し、Gromov-Wasserstein問題と関係を示す。
これにより、分散還元と呼ばれる新しい一般的なフレームワークが公開され、DRとクラスタリングを特別なケースとして回復し、単一の最適化問題内でそれらに共同で対処することができる。
論文 参考訳(メタデータ) (2024-02-03T19:00:19Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - Variable Clustering via Distributionally Robust Nodewise Regression [7.289979396903827]
可変クラスタリングのための多要素ブロックモデルについて検討し、ノード単位回帰の分布的ロバストなバージョンを定式化することにより、正規化サブスペースクラスタリングに接続する。
我々は凸緩和を導出し、ロバスト領域のサイズを選択するためのガイダンスを与え、そのためデータに基づいて正規化重み付けパラメータを提案し、実装のためのADMMアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-15T16:23:25Z) - Simplex Clustering via sBeta with Applications to Online Adjustment of Black-Box Predictions [16.876111500144667]
我々はk-sBetasと呼ばれる新しい確率的クラスタリング手法を提案する。
クラスタリング分布の総括的最大アプリート(MAP)視点を提供する。
我々のコードと既存の単純なクラスタリング手法との比較および導入したソフトマックス予測ベンチマークが公開されている。
論文 参考訳(メタデータ) (2022-07-30T18:29:11Z) - GSMFlow: Generation Shifts Mitigating Flow for Generalized Zero-Shot
Learning [55.79997930181418]
Generalized Zero-Shot Learningは、目に見えないクラスから見えないクラスに意味的な知識を移すことで、目に見えないクラスと見えないクラスの両方から画像を認識することを目的としている。
生成モデルの利点を生かして、見学したクラスから学んだ知識に基づいて、現実的な見知らぬサンプルを幻覚させることは、有望な解決策である。
本研究では,複数の条件付きアフィン結合層からなるフローベース生成フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-05T04:04:37Z) - Multi-level Latent Space Structuring for Generative Control [53.240701050423155]
本稿では,StyleGAN生成アーキテクチャを活用して新たなトランケーション手法を提案する。
我々は、ガウスの学習可能な混合を用いて、StyleGANの拡張中間潜在空間であるW-空間を再生成することを学ぶ。
結果として生じる切り離しスキームは、元の未熟なサンプルをより忠実にし、品質と多様性のトレードオフをより良くする。
論文 参考訳(メタデータ) (2022-02-11T21:26:17Z) - Multi-Facet Clustering Variational Autoencoders [9.150555507030083]
画像などの高次元データは通常、クラスタリング可能な複数の興味深い特徴を特徴付ける。
MFCVAE(Multi-Facet Clustering Variational Autoencoders)を導入する。
MFCVAEは複数のクラスタリングを同時に学習し、完全に教師なしでエンドツーエンドで訓練されている。
論文 参考訳(メタデータ) (2021-06-09T17:36:38Z) - Cluster-level Feature Alignment for Person Re-identification [16.01713931617725]
本稿では、データセット全体にわたるクラスタレベルの特徴アライメントという、別の特徴アライメントのモダリティを探索する。
クラスタレベルの特徴アライメントは,データセットの概要から反復的なアグリゲーションとアライメントから構成される。
論文 参考訳(メタデータ) (2020-08-15T23:47:47Z) - Improve Variational Autoencoder for Text Generationwith Discrete Latent
Bottleneck [52.08901549360262]
変分オートエンコーダ(VAE)は、エンドツーエンドの表現学習において必須のツールである。
VAEは強い自己回帰デコーダで潜伏変数を無視する傾向がある。
よりコンパクトな潜在空間において暗黙的な潜在特徴マッチングを強制する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2020-04-22T14:41:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。