論文の概要: Deep Clustering with a Constraint for Topological Invariance based on
Symmetric InfoNCE
- arxiv url: http://arxiv.org/abs/2303.03036v1
- Date: Mon, 6 Mar 2023 11:05:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 16:23:39.228509
- Title: Deep Clustering with a Constraint for Topological Invariance based on
Symmetric InfoNCE
- Title(参考訳): 対称情報に基づく位相不変性の制約付き深層クラスタリング
- Authors: Yuhui Zhang, Yuichiro Wada, Hiroki Waida, Kaito Goto, Yusaku Hino,
Takafumi Kanamori
- Abstract要約: このシナリオでは、非複雑なトポロジと複雑なトポロジデータセットの両方で、最先端のディープクラスタリング手法がうまく機能することはない。
本稿では,モデル学習シナリオにおける深層クラスタリング手法の目的を支援する対称InfoNCEを用いた制約を提案する。
提案手法の有効性を確認するため,既存のディープクラスタリング手法と我々の制約を組み合わせたMISTと呼ばれるディープクラスタリング手法を提案する。
- 参考スコア(独自算出の注目度): 10.912082501425944
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the scenario of deep clustering, in which the available prior
knowledge is limited. In this scenario, few existing state-of-the-art deep
clustering methods can perform well for both non-complex topology and complex
topology datasets. To address the problem, we propose a constraint utilizing
symmetric InfoNCE, which helps an objective of deep clustering method in the
scenario train the model so as to be efficient for not only non-complex
topology but also complex topology datasets. Additionally, we provide several
theoretical explanations of the reason why the constraint can enhances
performance of deep clustering methods. To confirm the effectiveness of the
proposed constraint, we introduce a deep clustering method named MIST, which is
a combination of an existing deep clustering method and our constraint. Our
numerical experiments via MIST demonstrate that the constraint is effective. In
addition, MIST outperforms other state-of-the-art deep clustering methods for
most of the commonly used ten benchmark datasets.
- Abstract(参考訳): 我々は,利用可能な事前知識が限定された深層クラスタリングのシナリオを検討する。
このシナリオでは、複雑なトポロジーと複雑なトポロジーデータセットの両方に対して、既存の最先端のディープクラスタリング手法がうまく機能する例はほとんどない。
そこで本研究では,非複素トポロジだけでなく,複雑なトポロジデータセットにも有効であるように,モデル学習における深層クラスタリング手法の目的を支援する対称情報を用いた制約を提案する。
さらに,この制約が深層クラスタリング手法の性能を向上できる理由について,いくつかの理論的説明を行う。
提案手法の有効性を確認するため,既存のディープクラスタリング手法と我々の制約を組み合わせたMISTと呼ばれるディープクラスタリング手法を提案する。
MISTを用いた数値実験により,制約が有効であることを実証した。
さらに、MISTは一般的な10のベンチマークデータセットのほとんどに対して、最先端のディープクラスタリング手法よりも優れている。
関連論文リスト
- Robust and Automatic Data Clustering: Dirichlet Process meets
Median-of-Means [18.3248037914529]
本稿では,モデルに基づく手法とセントロイド方式の原理を統合することにより,効率的かつ自動的なクラスタリング手法を提案する。
クラスタリング誤差の上限に関する統計的保証は,既存のクラスタリングアルゴリズムよりも提案手法の利点を示唆している。
論文 参考訳(メタデータ) (2023-11-26T19:01:15Z) - DivClust: Controlling Diversity in Deep Clustering [47.85350249697335]
DivClustはコンセンサスクラスタリングソリューションを生成し、単一クラスタリングベースラインを一貫して上回る。
提案手法は, フレームワークやデータセット間の多様性を, 計算コストを極めて小さく効果的に制御する。
論文 参考訳(メタデータ) (2023-04-03T14:45:43Z) - Deep Clustering: A Comprehensive Survey [53.387957674512585]
クラスタリング分析は、機械学習とデータマイニングにおいて必須の役割を果たす。
ディープ・クラスタリングは、ディープ・ニューラルネットワークを使ってクラスタリングフレンドリーな表現を学習することができるが、幅広いクラスタリングタスクに広く適用されている。
ディープクラスタリングに関する既存の調査は、主にシングルビューフィールドとネットワークアーキテクチャに焦点を当てており、クラスタリングの複雑なアプリケーションシナリオを無視している。
論文 参考訳(メタデータ) (2022-10-09T02:31:32Z) - A One-shot Framework for Distributed Clustered Learning in Heterogeneous
Environments [54.172993875654015]
異種環境における分散学習のためのコミュニケーション効率化手法のファミリーを提案する。
ユーザによるローカル計算に基づくワンショットアプローチと、サーバにおけるクラスタリングベースのアグリゲーションステップは、強力な学習保証を提供する。
厳密な凸問題に対しては,ユーザ毎のデータ点数がしきい値を超える限り,提案手法はサンプルサイズの観点から順序最適平均二乗誤差率を達成する。
論文 参考訳(メタデータ) (2022-09-22T09:04:10Z) - Deep Conditional Gaussian Mixture Model for Constrained Clustering [7.070883800886882]
制約付きクラスタリングは、部分的にラベル付けされたデータの増加量に関する事前情報を利用することができる。
本稿では、直感的で解釈可能で、勾配変動推論の枠組みで効率的に訓練できる制約付きクラスタリングのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-11T13:38:09Z) - A Deep Learning Object Detection Method for an Efficient Clusters
Initialization [6.365889364810239]
クラスタリングは、銀行顧客のプロファイリング、文書検索、画像セグメンテーション、Eコマースレコメンデーションエンジンなど、多くのアプリケーションで使用されている。
既存のクラスタリング技術には、初期化パラメータに対する安定性の信頼性という大きな制限がある。
本稿では,計算オーバーヘッドとリソースオーバーヘッドの少ない最適クラスタリングパラメータを提供するソリューションを提案する。
論文 参考訳(メタデータ) (2021-04-28T08:34:25Z) - A Framework for Deep Constrained Clustering [19.07636653413663]
制約付きクラスタリングは、k平均、混合モデル、スペクトルクラスタリングなどの一般的なアルゴリズムには存在するが、いくつかの制限がある。
ここでは、制約クラスタリングのためのディープラーニングフレームワークを探索し、特に制約クラスタリングの分野を拡張する方法について検討します。
我々のフレームワークは、ラベル付き側情報から生成された標準的制約や部分的制約(先に報告した十分な文書化された負の影響を伴わない)を扱えないことを示す。
これら4種類の制約に一般的に適用できる効率的なトレーニングパラダイムを提案します。
論文 参考訳(メタデータ) (2021-01-07T22:49:06Z) - Overcomplete Deep Subspace Clustering Networks [80.16644725886968]
4つのベンチマークデータセットの実験結果から,クラスタリング誤差の観点から,DSCや他のクラスタリング手法に対する提案手法の有効性が示された。
また,本手法は,最高の性能を得るために事前学習を中止する点にDSCほど依存せず,騒音にも頑健である。
論文 参考訳(メタデータ) (2020-11-16T22:07:18Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - Unsupervised Multi-view Clustering by Squeezing Hybrid Knowledge from
Cross View and Each View [68.88732535086338]
本稿では,適応グラフ正規化に基づくマルチビュークラスタリング手法を提案する。
5つの多視点ベンチマークの実験結果から,提案手法が他の最先端手法をクリアマージンで上回ることを示す。
論文 参考訳(メタデータ) (2020-08-23T08:25:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。