論文の概要: Generalised Mutual Information for Discriminative Clustering
- arxiv url: http://arxiv.org/abs/2210.06300v1
- Date: Wed, 12 Oct 2022 15:09:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 12:23:41.738548
- Title: Generalised Mutual Information for Discriminative Clustering
- Title(参考訳): 識別クラスタリングのための一般化された相互情報
- Authors: Ohl Louis, Mattei Pierre-Alexandre, Bouveyron Charles, Harchaoui
Warith, Leclercq Micka\"el, Droit Arnaud, Precioso Frederic
- Abstract要約: この10年で、ディープクラスタリングの成功は、ニューラルネットワークをトレーニングするための教師なしの目的として相互情報(MI)に大きく関与した。
本稿ではまず,MIの最大化がクラスタの充足に寄与しないことを示す。
本稿では、教師なしニューラルネットワークトレーニングのためのメトリクスセットである一般化相互情報(GEMINI: Generalized mutual information)を紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the last decade, recent successes in deep clustering majorly involved the
mutual information (MI) as an unsupervised objective for training neural
networks with increasing regularisations. While the quality of the
regularisations have been largely discussed for improvements, little attention
has been dedicated to the relevance of MI as a clustering objective. In this
paper, we first highlight how the maximisation of MI does not lead to
satisfying clusters. We identified the Kullback-Leibler divergence as the main
reason of this behaviour. Hence, we generalise the mutual information by
changing its core distance, introducing the generalised mutual information
(GEMINI): a set of metrics for unsupervised neural network training. Unlike MI,
some GEMINIs do not require regularisations when training. Some of these
metrics are geometry-aware thanks to distances or kernels in the data space.
Finally, we highlight that GEMINIs can automatically select a relevant number
of clusters, a property that has been little studied in deep clustering context
where the number of clusters is a priori unknown.
- Abstract(参考訳): この10年で、ディープクラスタリングの成功は、ニューラルネットワークをトレーニングするための教師なしの目的として相互情報(MI)に大きく関与した。
正規化の質は改善のために主に議論されてきたが、クラスタリングの目的としてのMIの関連性にはほとんど注目されていない。
本稿ではまず,MIの最大化がクラスタ満足度に寄与しないことを示す。
この行動の主な原因として,kullback-leiblerの発散を確認した。
そこで我々は,教師なしニューラルネットワークトレーニングのための指標セットである一般化相互情報(GEMINI)を導入し,コア距離を変化させて相互情報を一般化する。
MIとは異なり、一部のGEMINIはトレーニング時に正規化を必要としない。
これらのメトリクスのいくつかは、データ空間内の距離やカーネルによって幾何学的に認識される。
最後に、GEMINIsは、クラスタの数が未知の深層クラスタリングコンテキストにおいて、ほとんど研究されていないプロパティである、関連するクラスタの数を自動で選択できる点を強調した。
関連論文リスト
- Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - Transferable Deep Clustering Model [14.073783373395196]
本稿では,データサンプルの分布に応じてクラスタセントロイドを自動的に適応できる,転送可能な新しいディープクラスタリングモデルを提案する。
提案手法では, 試料との関係を計測することで, センチロイドを適応できる新しい注意型モジュールを提案する。
合成および実世界の両方のデータセットに対する実験結果から,提案した移動学習フレームワークの有効性と有効性を示す。
論文 参考訳(メタデータ) (2023-10-07T23:35:17Z) - Generalised Mutual Information: a Framework for Discriminative
Clustering [16.251529835865917]
Generalized Mutual Information (GEMINI)は、教師なしニューラルネットワークトレーニングのためのメトリクスのセットである。
ミューチュアル・インフォメーション(MI)とは異なり、トレーニング時に正規化を必要としないGEMINIもある。
GEMINIは、関連するクラスタを自動的に選択できる。
論文 参考訳(メタデータ) (2023-09-06T09:39:33Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - CLUSTSEG: Clustering for Universal Segmentation [56.58677563046506]
CLUSTSEGは画像セグメンテーションのための一般的なトランスフォーマーベースのフレームワークである。
これは、統合されたニューラルクラスタリングスキームを通じて、異なるイメージセグメンテーションタスク(スーパーピクセル、セマンティック、インスタンス、パノプティクス)に取り組む。
論文 参考訳(メタデータ) (2023-05-03T15:31:16Z) - A Clustering Framework for Unsupervised and Semi-supervised New Intent
Discovery [25.900661912504397]
我々は、教師なしおよび半教師なしの新しい意図発見のための新しいクラスタリングフレームワークUSNIDを提案する。
まず、教師なしまたは半教師なしのデータをフル活用して、浅いセマンティック類似性関係を抽出する。
第2に、クラスタ割り当ての不整合の問題に対処するために、セントロイド誘導クラスタリング機構を設計する。
第3に、教師なしまたは半教師付きデータの高レベルなセマンティクスをキャプチャして、きめ細かい意図的クラスタを見つける。
論文 参考訳(メタデータ) (2023-04-16T05:30:42Z) - Deep Clustering: A Comprehensive Survey [53.387957674512585]
クラスタリング分析は、機械学習とデータマイニングにおいて必須の役割を果たす。
ディープ・クラスタリングは、ディープ・ニューラルネットワークを使ってクラスタリングフレンドリーな表現を学習することができるが、幅広いクラスタリングタスクに広く適用されている。
ディープクラスタリングに関する既存の調査は、主にシングルビューフィールドとネットワークアーキテクチャに焦点を当てており、クラスタリングの複雑なアプリケーションシナリオを無視している。
論文 参考訳(メタデータ) (2022-10-09T02:31:32Z) - Meta Clustering Learning for Large-scale Unsupervised Person
Re-identification [124.54749810371986]
メタクラスタリング学習(MCL)と呼ばれる「大規模タスクのための小さなデータ」パラダイムを提案する。
MCLは、第1フェーズのトレーニングのためにコンピューティングを節約するためにクラスタリングを介して、未ラベルデータのサブセットを擬似ラベル付けするのみである。
提案手法は計算コストを大幅に削減すると同時に,従来よりも優れた性能を実現している。
論文 参考訳(メタデータ) (2021-11-19T04:10:18Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - AutoEmbedder: A semi-supervised DNN embedding system for clustering [0.0]
本稿では,高次元データをクラスタリング可能な埋め込みポイントにダウンサンプリングする,AutoEmbedderという新しい埋め込みシステムを提案する。
トレーニングプロセスは半教師付きで、Siameseネットワークアーキテクチャを使用して、機能学習フェーズにおけるペアワイズ制約損失を計算します。
論文 参考訳(メタデータ) (2020-07-11T19:00:45Z) - CycleCluster: Modernising Clustering Regularisation for Deep
Semi-Supervised Classification [0.0]
深層半教師付き分類のための新しいフレームワークであるCycleClusterを提案する。
我々のコア最適化は、グラフベースの擬似ラベルと共有深層ネットワークとともに、新たなクラスタリングベースの正規化によって推進されます。
論文 参考訳(メタデータ) (2020-01-15T13:34:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。