論文の概要: Learning Statistical Representation with Joint Deep Embedded Clustering
- arxiv url: http://arxiv.org/abs/2109.05232v1
- Date: Sat, 11 Sep 2021 09:26:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-17 12:52:36.773474
- Title: Learning Statistical Representation with Joint Deep Embedded Clustering
- Title(参考訳): 組込みクラスタリングによる統計的表現の学習
- Authors: Mina Rezaei, Emilio Dorigatti, David Ruegamer, Bernd Bischl
- Abstract要約: StatDECは、共同統計表現学習とクラスタリングのための教師なしのフレームワークである。
実験により,これらの表現を用いることで,様々な画像データセットにまたがる不均衡な画像クラスタリングの結果を大幅に改善できることが示された。
- 参考スコア(独自算出の注目度): 2.1267423178232407
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One of the most promising approaches for unsupervised learning is combining
deep representation learning and deep clustering. Some recent works propose to
simultaneously learn representation using deep neural networks and perform
clustering by defining a clustering loss on top of embedded features. However,
these approaches are sensitive to imbalanced data and out-of-distribution
samples. Hence, these methods optimize clustering by pushing data close to
randomly initialized cluster centers. This is problematic when the number of
instances varies largely in different classes or a cluster with few samples has
less chance to be assigned a good centroid. To overcome these limitations, we
introduce StatDEC, a new unsupervised framework for joint statistical
representation learning and clustering. StatDEC simultaneously trains two deep
learning models, a deep statistics network that captures the data distribution,
and a deep clustering network that learns embedded features and performs
clustering by explicitly defining a clustering loss. Specifically, the
clustering network and representation network both take advantage of our
proposed statistics pooling layer that represents mean, variance, and
cardinality to handle the out-of-distribution samples as well as a class
imbalance. Our experiments show that using these representations, one can
considerably improve results on imbalanced image clustering across a variety of
image datasets. Moreover, the learned representations generalize well when
transferred to the out-of-distribution dataset.
- Abstract(参考訳): 教師なし学習の最も有望なアプローチの1つは、深層表現学習と深層クラスタリングの組み合わせである。
最近の研究では、ディープニューラルネットワークを使って同時に表現を学習し、組み込み機能上にクラスタリング損失を定義することでクラスタリングを実行することを提案している。
しかし、これらの手法は不均衡なデータや分布外サンプルに敏感である。
したがって、これらの手法はランダムに初期化されたクラスタセンターにデータをプッシュすることでクラスタリングを最適化する。
これは、インスタンス数がほとんど異なるクラスで変化する場合や、サンプルが少ないクラスタが良いcentroidを割り当てる機会が少ない場合に問題となる。
これらの制約を克服するために,共同統計表現学習とクラスタリングのための新しい教師なしフレームワークStatDECを導入する。
StatDECは2つのディープラーニングモデル、データ分散をキャプチャするディープ統計ネットワーク、組み込み機能を学びクラスタリング損失を明確に定義してクラスタリングを行うディープクラスタリングネットワークを同時にトレーニングする。
具体的には、クラスタリングネットワークと表現ネットワークの両方が、平均、分散、濃度を表す統計プーリング層を利用して、分散サンプルとクラス不均衡を処理する。
実験により,これらの表現を用いることで,様々な画像データセットにまたがる不均衡画像クラスタリングの結果を大幅に改善できることを示した。
さらに、学習された表現は、分配外データセットに転送されるとよく一般化される。
関連論文リスト
- Stable Cluster Discrimination for Deep Clustering [7.175082696240088]
ディープクラスタリングは、インスタンスの表現(つまり、表現学習)を最適化し、固有のデータ分散を探索することができる。
結合された目的は、すべてのインスタンスが一様機能に崩壊する、自明な解決策を意味する。
本研究では,1段階クラスタリングにおいて,教師あり学習における一般的な識別タスクが不安定であることを示す。
新規な安定クラスタ識別(SeCu)タスクを提案し、それに応じて新しいハードネス対応クラスタリング基準を得ることができる。
論文 参考訳(メタデータ) (2023-11-24T06:43:26Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - ClusterNet: A Perception-Based Clustering Model for Scattered Data [16.326062082938215]
クラスタ分離は、一般的に広く使用されているクラスタリング技術によって取り組まれるタスクである。
本稿では,分散データを直接操作する学習戦略を提案する。
私たちは、ポイントベースのディープラーニングモデルであるClusterNetをトレーニングし、クラスタ分離性に対する人間の認識を反映するように訓練します。
論文 参考訳(メタデータ) (2023-04-27T13:41:12Z) - DeepCluE: Enhanced Image Clustering via Multi-layer Ensembles in Deep
Neural Networks [53.88811980967342]
本稿では,Ensembles (DeepCluE) を用いたDeep Clusteringを提案する。
ディープニューラルネットワークにおける複数のレイヤのパワーを活用することで、ディープクラスタリングとアンサンブルクラスタリングのギャップを埋める。
6つの画像データセットの実験結果から、最先端のディープクラスタリングアプローチに対するDeepCluEの利点が確認されている。
論文 参考訳(メタデータ) (2022-06-01T09:51:38Z) - Self-Evolutionary Clustering [1.662966122370634]
既存のディープクラスタリング手法の多くは、単純な距離比較に基づいており、手作り非線形マッピングによって生成されたターゲット分布に大きく依存している。
新たなモジュール型自己進化クラスタリング(Self-EvoC)フレームワークが構築され,自己管理的な分類によってクラスタリング性能が向上する。
このフレームワークは、サンプルアウトレイラを効率よく識別し、自己監督の助けを借りて、より良い目標分布を生成することができる。
論文 参考訳(メタデータ) (2022-02-21T19:38:18Z) - Clustering by Maximizing Mutual Information Across Views [62.21716612888669]
本稿では,共同表現学習とクラスタリングを組み合わせた画像クラスタリングのための新しいフレームワークを提案する。
提案手法は,様々な画像データセットにおける最先端の単一ステージクラスタリング手法よりも優れていた。
論文 参考訳(メタデータ) (2021-07-24T15:36:49Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - Unsupervised Visual Representation Learning by Online Constrained
K-Means [44.38989920488318]
クラスタ識別は、教師なし表現学習の効果的な前提課題である。
オンラインtextbfConstrained textbfK-mtextbfeans (textbfCoKe) を用いたクラスタリングに基づく新しいプリテキストタスクを提案する。
当社のオンライン割当て方式は,グローバルな最適化に近づくための理論的保証を持っている。
論文 参考訳(メタデータ) (2021-05-24T20:38:32Z) - Graph Contrastive Clustering [131.67881457114316]
本稿では,クラスタリングタスクに適用可能な新しいグラフコントラスト学習フレームワークを提案し,gcc(graph constrastive clustering)法を考案した。
特に、グラフラプラシアンに基づくコントラスト損失は、より識別的かつクラスタリングフレンドリーな特徴を学ぶために提案されている。
一方で、よりコンパクトなクラスタリング割り当てを学ぶために、グラフベースのコントラスト学習戦略が提案されている。
論文 参考訳(メタデータ) (2021-04-03T15:32:49Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。