論文の概要: Personalized Clustering via Targeted Representation Learning
- arxiv url: http://arxiv.org/abs/2412.13690v2
- Date: Fri, 20 Dec 2024 12:08:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-23 18:46:08.590214
- Title: Personalized Clustering via Targeted Representation Learning
- Title(参考訳): 目標表現学習によるパーソナライズされたクラスタリング
- Authors: Xiwen Geng, Suyun Zhao, Yixin Yu, Borui Peng, Pan Du, Hong Chen, Cuiping Li, Mengdie Wang,
- Abstract要約: クラスタリングは伝統的に、ラベルのないデータ内の自然なグループ構造を明らかにすることを目的としています。
ターゲット表現学習を明示的に行うパーソナライズされたクラスタリング手法を提案する。
- 参考スコア(独自算出の注目度): 12.685373069492448
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Clustering traditionally aims to reveal a natural grouping structure within unlabeled data. However, this structure may not always align with users' preferences. In this paper, we propose a personalized clustering method that explicitly performs targeted representation learning by interacting with users via modicum task information (e.g., $\textit{must-link}$ or $\textit{cannot-link}$ pairs) to guide the clustering direction. We query users with the most informative pairs, i.e., those pairs most hard to cluster and those most easy to miscluster, to facilitate the representation learning in terms of the clustering preference. Moreover, by exploiting attention mechanism, the targeted representation is learned and augmented. By leveraging the targeted representation and constrained contrastive loss as well, personalized clustering is obtained. Theoretically, we verify that the risk of personalized clustering is tightly bounded, guaranteeing that active queries to users do mitigate the clustering risk. Experimentally, extensive results show that our method performs well across different clustering tasks and datasets, even when only a limited number of queries are available.
- Abstract(参考訳): クラスタリングは伝統的に、ラベルのないデータ内の自然なグループ構造を明らかにすることを目的としています。
しかし、この構造はユーザーの好みと必ずしも一致しないかもしれない。
本稿では,モディカムタスク情報(例えば,$\textit{must-link}$または$\textit{cannot-link}$ pairs)を介してユーザと対話することで,目的の表現学習を明示的に行うパーソナライズされたクラスタリング手法を提案する。
私たちは、最も情報に富んだペア、すなわちクラスタリングの最も難しいペアと、クラスタリングの好みの観点から表現学習を容易にするために、ユーザに問い合わせます。
さらに、注意機構を活用することにより、対象の表現を学習し、拡張する。
対象表現と制約付きコントラスト損失を活用することにより、パーソナライズされたクラスタリングを得る。
理論的には、パーソナライズされたクラスタリングのリスクは厳密に拘束されており、ユーザに対するアクティブなクエリがクラスタリングのリスクを軽減することを保証する。
実験により,限られた数のクエリが利用可能であっても,クラスタリングタスクやデータセットの異なる範囲で,本手法が良好に動作することを示す。
関連論文リスト
- Moving Past Single Metrics: Exploring Short-Text Clustering Across Multiple Resolutions [0.0]
この研究は、3万の政治Twitterの伝記を含む、短いテキストのクラスタリングに焦点を当てている。
クラスタ解像度間の特定のクラスタの安定性を明らかにするために、比例安定性の指標が導入された。
結果は、データセットの性質を理解するための質問ツールを提供するために、Sankeyダイアグラムを使用して視覚化される。
論文 参考訳(メタデータ) (2025-02-24T10:17:09Z) - Cluster Specific Representation Learning [1.6727186769396276]
広く応用されているにもかかわらず、善の表象の定義は確立されていない。
本稿では,データに固有のクラスタが存在する場合,各クラスタに固有の表現が必要であるという,ダウンストリームに依存しない定式化を提案する。
そこで我々は,クラスタ固有の表現とクラスタ割り当てを共同で学習するメタアルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-12-04T16:59:37Z) - Order is All You Need for Categorical Data Clustering [31.851890008893847]
本稿では,属性値間の順序関係がクラスタリング精度の決定的要因であることを示す。
本稿では,クラスタと注文の協調学習を可能にする新しい学習パラダイムを提案する。
このアルゴリズムは収束保証によりより優れたクラスタリング精度を実現する。
論文 参考訳(メタデータ) (2024-11-19T08:23:25Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - Using Decision Trees for Interpretable Supervised Clustering [0.0]
教師付きクラスタリングは、高い確率密度でラベル付きデータのクラスタを形成することを目的としている。
特に、特定のクラスのデータのクラスタを見つけ、包括的なルールのセットでクラスタを記述することに興味があります。
論文 参考訳(メタデータ) (2023-07-16T17:12:45Z) - Large Language Models Enable Few-Shot Clustering [88.06276828752553]
大規模言語モデルは、クエリ効率が良く、数発のセミ教師付きテキストクラスタリングを可能にするために、専門家のガイダンスを増幅できることを示す。
最初の2つのステージにLSMを組み込むことで、クラスタの品質が大幅に向上することがわかった。
論文 参考訳(メタデータ) (2023-07-02T09:17:11Z) - Interpretable Deep Clustering for Tabular Data [7.972599673048582]
クラスタリングは、データ分析で広く使われている基本的な学習タスクである。
本稿では,インスタンスとクラスタレベルでの解釈可能なクラスタ割り当てを予測する,新たなディープラーニングフレームワークを提案する。
提案手法は,生物,テキスト,画像,物理データセットのクラスタ割り当てを確実に予測できることを示す。
論文 参考訳(メタデータ) (2023-06-07T21:08:09Z) - ClusterNet: A Perception-Based Clustering Model for Scattered Data [16.326062082938215]
クラスタ分離は、一般的に広く使用されているクラスタリング技術によって取り組まれるタスクである。
本稿では,分散データを直接操作する学習戦略を提案する。
私たちは、ポイントベースのディープラーニングモデルであるClusterNetをトレーニングし、クラスタ分離性に対する人間の認識を反映するように訓練します。
論文 参考訳(メタデータ) (2023-04-27T13:41:12Z) - Hard Regularization to Prevent Deep Online Clustering Collapse without
Data Augmentation [65.268245109828]
オンラインディープクラスタリング(オンラインディープクラスタリング)とは、機能抽出ネットワークとクラスタリングモデルを組み合わせて、クラスタラベルを処理された各新しいデータポイントまたはバッチに割り当てることである。
オフラインメソッドよりも高速で汎用性が高いが、オンラインクラスタリングは、エンコーダがすべての入力を同じポイントにマッピングし、すべてを単一のクラスタに配置する、崩壊したソリューションに容易に到達することができる。
本稿では,データ拡張を必要としない手法を提案する。
論文 参考訳(メタデータ) (2023-03-29T08:23:26Z) - Oracle-guided Contrastive Clustering [28.066047266687058]
Oracle-Guided Contrastive Clustering(OCC)は,ユニークな要求を持ったオーラクルに対して,ペアワイズで同クラスタ"クエリを対話的に作成することで,クラスタリングを実現する。
私たちの知る限りでは、パーソナライズされたクラスタリングを実行する最初のディープフレームワークです。
論文 参考訳(メタデータ) (2022-11-01T12:05:12Z) - Self-supervised Contrastive Attributed Graph Clustering [110.52694943592974]
我々は,自己教師型コントラストグラフクラスタリング(SCAGC)という,新たな属性グラフクラスタリングネットワークを提案する。
SCAGCでは,不正確なクラスタリングラベルを活用することで,ノード表現学習のための自己教師付きコントラスト損失を設計する。
OOSノードでは、SCAGCはクラスタリングラベルを直接計算できる。
論文 参考訳(メタデータ) (2021-10-15T03:25:28Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - Graph Contrastive Clustering [131.67881457114316]
本稿では,クラスタリングタスクに適用可能な新しいグラフコントラスト学習フレームワークを提案し,gcc(graph constrastive clustering)法を考案した。
特に、グラフラプラシアンに基づくコントラスト損失は、より識別的かつクラスタリングフレンドリーな特徴を学ぶために提案されている。
一方で、よりコンパクトなクラスタリング割り当てを学ぶために、グラフベースのコントラスト学習戦略が提案されている。
論文 参考訳(メタデータ) (2021-04-03T15:32:49Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。