論文の概要: Unsupervised Embedding of Hierarchical Structure in Euclidean Space
- arxiv url: http://arxiv.org/abs/2010.16055v1
- Date: Fri, 30 Oct 2020 03:57:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 16:08:28.799415
- Title: Unsupervised Embedding of Hierarchical Structure in Euclidean Space
- Title(参考訳): ユークリッド空間における階層構造の教師なし埋め込み
- Authors: Jinyu Zhao, Yi Hao, Cyrus Rashtchian
- Abstract要約: 我々は、集約アルゴリズムによって生成される階層的クラスタリングを改善する方法として、ユークリッド空間にデータの非線形埋め込みを学習することを検討する。
遅延空間埋め込みの再スケーリングはデンドログラムの純度とモーゼリー・ワングのコスト関数の改善をもたらすことを示す。
- 参考スコア(独自算出の注目度): 30.507049058838025
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep embedding methods have influenced many areas of unsupervised learning.
However, the best methods for learning hierarchical structure use non-Euclidean
representations, whereas Euclidean geometry underlies the theory behind many
hierarchical clustering algorithms. To bridge the gap between these two areas,
we consider learning a non-linear embedding of data into Euclidean space as a
way to improve the hierarchical clustering produced by agglomerative
algorithms. To learn the embedding, we revisit using a variational autoencoder
with a Gaussian mixture prior, and we show that rescaling the latent space
embedding and then applying Ward's linkage-based algorithm leads to improved
results for both dendrogram purity and the Moseley-Wang cost function. Finally,
we complement our empirical results with a theoretical explanation of the
success of this approach. We study a synthetic model of the embedded vectors
and prove that Ward's method exactly recovers the planted hierarchical
clustering with high probability.
- Abstract(参考訳): ディープ埋め込み法は教師なし学習の多くの領域に影響を与えた。
しかし、階層構造を学ぶ最良の方法は非ユークリッド表現を使うのに対し、ユークリッド幾何学は多くの階層的クラスタリングアルゴリズムの背後にある理論の根底にある。
これら2つの領域間のギャップを埋めるため、凝集アルゴリズムによって生成される階層的クラスタリングを改善する方法として、ユークリッド空間にデータの非線形埋め込みを学ぶことを検討する。
組込みを学習するために,ガウス混合を用いた変分オートエンコーダを用いて再検討を行い,潜在空間の組込みを再スケーリングし,ウォードのリンケージに基づくアルゴリズムを適用すると,デンドログラム純度とモーゼリー・ワンコスト関数の両方の結果が向上することを示す。
最後に,本手法の有効性を理論的に説明し,実験結果を補完する。
組込みベクトルの合成モデルを調査し,ウォード法が植込みされた階層的クラスタリングを高い確率で正確に復元することを示す。
関連論文リスト
- Anti-Collapse Loss for Deep Metric Learning Based on Coding Rate Metric [99.19559537966538]
DMLは、分類、クラスタリング、検索といった下流タスクのための識別可能な高次元埋め込み空間を学習することを目的としている。
埋め込み空間の構造を維持し,特徴の崩壊を避けるために,反崩壊損失と呼ばれる新しい損失関数を提案する。
ベンチマークデータセットの総合実験により,提案手法が既存の最先端手法より優れていることを示す。
論文 参考訳(メタデータ) (2024-07-03T13:44:20Z) - Unfolding ADMM for Enhanced Subspace Clustering of Hyperspectral Images [43.152314090830174]
本稿では,スパースサブスペースクラスタリングのためのマルチプライヤの交互方向法(ADMM)に基づく反復解法を展開させることにより,ハイパースペクトル画像(HSI)のための革新的なクラスタリングアーキテクチャを提案する。
提案手法は, 構造保存モジュールの一部として, K近傍近傍のアルゴリズムを用いて, HSIデータの構造特性をよく把握する。
論文 参考訳(メタデータ) (2024-04-10T15:51:46Z) - Exploiting Data Hierarchy as a New Modality for Contrastive Learning [0.0]
この研究は、階層的に構造化されたデータが、ニューラルネットワークが大聖堂の概念的な表現を学ぶのにどのように役立つかを研究する。
基礎となるWikiScenesデータセットは、大聖堂の構成要素の空間的に整理された階層構造を提供する。
本稿では,エンコーダの潜伏空間におけるデータ空間階層を表現するために,三重項マージン損失を利用した新しい階層的コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-06T21:47:49Z) - Stochastic Unrolled Federated Learning [85.6993263983062]
本稿では,UnRolled Federated Learning (SURF)を導入する。
提案手法は,この拡張における2つの課題,すなわち,非学習者へのデータセット全体の供給の必要性と,フェデレート学習の分散的性質に対処する。
論文 参考訳(メタデータ) (2023-05-24T17:26:22Z) - Hierarchical clustering with dot products recovers hidden tree structure [53.68551192799585]
本稿では,階層構造の回復に着目した凝集クラスタリングアルゴリズムの新しい視点を提案する。
クラスタを最大平均点積でマージし、例えば最小距離やクラスタ内分散でマージしないような、標準的なアルゴリズムの単純な変種を推奨する。
このアルゴリズムにより得られた木は、汎用確率的グラフィカルモデルの下で、データ中の生成的階層構造をボナフェイド推定することを示した。
論文 参考訳(メタデータ) (2023-05-24T11:05:12Z) - Optimization-Based Separations for Neural Networks [57.875347246373956]
本研究では,2層のシグモダルアクティベーションを持つディープ2ニューラルネットワークを用いて,ボールインジケータ関数を効率よく学習できることを示す。
これは最適化に基づく最初の分離結果であり、より強力なアーキテクチャの近似の利点は、実際に確実に現れる。
論文 参考訳(メタデータ) (2021-12-04T18:07:47Z) - Non-Euclidean Self-Organizing Maps [0.0]
非ユークリッド SOM に対する一般化されたセットアップを提案する。
我々は、トポロジ関連拡張を導入することで、従来のSOMアルゴリズムを改善した。
私たちの提案は、次元の縮小、クラスタリング、あるいはビッグデータにおける類似点の発見にうまく適用できます。
論文 参考訳(メタデータ) (2021-09-24T06:57:15Z) - Functorial Manifold Learning [1.14219428942199]
まず、擬似距離空間を最適化対象にマッピングする関手として多様体学習アルゴリズムを特徴付ける。
次に、この特徴付けを用いて、多様体学習損失関数の洗練された境界を証明し、多様体学習アルゴリズムの階層を構築する。
我々は,この階層の異なるレベルにおける函手として,計量多次元スケーリング,IsoMap,UMAPなど,いくつかの一般的な多様体学習アルゴリズムを表現している。
論文 参考訳(メタデータ) (2020-11-15T02:30:23Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - Dual-constrained Deep Semi-Supervised Coupled Factorization Network with
Enriched Prior [80.5637175255349]
本稿では、DS2CF-Netと呼ばれる、拡張された事前制約付きDual-Constrained Deep Semi-Supervised Coupled Factorization Networkを提案する。
隠れた深い特徴を抽出するために、DS2CF-Netは、深い構造と幾何学的な構造に制約のあるニューラルネットワークとしてモデル化される。
我々のネットワークは、表現学習とクラスタリングのための最先端の性能を得ることができる。
論文 参考訳(メタデータ) (2020-09-08T13:10:21Z) - Hierarchical Correlation Clustering and Tree Preserving Embedding [3.821323038670061]
本稿では,よく知られた相関クラスタリングを拡張する階層的相関クラスタリング手法を提案する。
本稿では,このような階層的相関クラスタリングを用いた教師なし表現学習について検討する。
論文 参考訳(メタデータ) (2020-02-18T17:44:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。