論文の概要: Clustering High-dimensional Data: Balancing Abstraction and Representation Tutorial at AAAI 2026
- arxiv url: http://arxiv.org/abs/2601.11160v1
- Date: Fri, 16 Jan 2026 10:22:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-19 20:21:50.44659
- Title: Clustering High-dimensional Data: Balancing Abstraction and Representation Tutorial at AAAI 2026
- Title(参考訳): 高次元データのクラスタリング:AAAI 2026における抽象化と表現のバランス
- Authors: Claudia Plant, Lena G. M. Bauer, Christian Böhm,
- Abstract要約: クラスタリングには抽象化と表現のバランスが必要だ。
サブスペースとディープクラスタリングへのアプローチが、高次元および複雑なデータをどのようにサポートするかを見る。
現在のディープクラスタリング手法は、セントロイドベースのクラスタリング損失と密度ベースのクラスタリング損失を通じて、どのように抽象化を定義し、強制するかを確認します。
- 参考スコア(独自算出の注目度): 9.517609965245818
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: How to find a natural grouping of a large real data set? Clustering requires a balance between abstraction and representation. To identify clusters, we need to abstract from superfluous details of individual objects. But we also need a rich representation that emphasizes the key features shared by groups of objects that distinguish them from other groups of objects. Each clustering algorithm implements a different trade-off between abstraction and representation. Classical K-means implements a high level of abstraction - details are simply averaged out - combined with a very simple representation - all clusters are Gaussians in the original data space. We will see how approaches to subspace and deep clustering support high-dimensional and complex data by allowing richer representations. However, with increasing representational expressiveness comes the need to explicitly enforce abstraction in the objective function to ensure that the resulting method performs clustering and not just representation learning. We will see how current deep clustering methods define and enforce abstraction through centroid-based and density-based clustering losses. Balancing the conflicting goals of abstraction and representation is challenging. Ideas from subspace clustering help by learning one latent space for the information that is relevant to clustering and another latent space to capture all other information in the data. The tutorial ends with an outlook on future research in clustering. Future methods will more adaptively balance abstraction and representation to improve performance, energy efficiency and interpretability. By automatically finding the sweet spot between abstraction and representation, the human brain is very good at clustering and other related tasks such as single-shot learning. So, there is still much room for improvement.
- Abstract(参考訳): 大規模な実データセットの自然なグループ化を見つけるには?
クラスタリングには抽象化と表現のバランスが必要だ。
クラスタを識別するには、個々のオブジェクトの過剰な詳細から抽象化する必要があります。
しかし、他のオブジェクトのグループと区別するオブジェクトのグループによって共有される重要な特徴を強調するリッチな表現も必要です。
各クラスタリングアルゴリズムは抽象化と表現の間に異なるトレードオフを実装している。
古典的なK平均は、高レベルの抽象化 - 詳細は単に平均化されている - と非常に単純な表現の組み合わせ - を実装している。
よりリッチな表現を可能にすることによって、サブスペースとディープクラスタリングへのアプローチが、高次元および複雑なデータをどのようにサポートするかを確認する。
しかし,表現表現力の増大に伴い,目的関数の抽象化を明示的に実施し,結果のクラスタリングを実現する必要がある。
現在のディープクラスタリング手法は、セントロイドベースのクラスタリング損失と密度ベースのクラスタリング損失を通じて、どのように抽象化を定義し、強制するかを確認します。
抽象と表現の相反する目標のバランスをとることは難しい。
サブスペースクラスタリングのアイデアは、クラスタリングに関連する情報の潜在空間と、データ内の他のすべての情報をキャプチャする他の潜在空間を学ぶのに役立つ。
このチュートリアルは、クラスタリングにおける将来の研究の展望で終わる。
将来の手法は、性能、エネルギー効率、解釈可能性を改善するために、より適応的に抽象化と表現のバランスをとる。
抽象化と表現の間のスイートスポットを自動的に見つけることで、人間の脳はクラスタリングや単発学習などの関連するタスクに非常に適しています。
ですから,改善の余地はたくさんあります。
関連論文リスト
- Cluster Specific Representation Learning [1.6727186769396276]
広く応用されているにもかかわらず、善の表象の定義は確立されていない。
本稿では,データに固有のクラスタが存在する場合,各クラスタに固有の表現が必要であるという,ダウンストリームに依存しない定式化を提案する。
そこで我々は,クラスタ固有の表現とクラスタ割り当てを共同で学習するメタアルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-12-04T16:59:37Z) - Categorical Data Clustering via Value Order Estimated Distance Metric Learning [53.28598689867732]
本稿では,分類属性を直感的に表現する新しい順序距離計量学習手法を提案する。
新しい共同学習パラダイムが開発され、クラスタリングとオーダー距離メートル法学習の代替となる。
提案手法は分類および混合データセットのクラスタリング精度に優れる。
論文 参考訳(メタデータ) (2024-11-19T08:23:25Z) - Deep Structure and Attention Aware Subspace Clustering [29.967881186297582]
本稿では,新しいサブスペースクラスタリング(DSASC)を提案する。
視覚変換器を用いて特徴を抽出し,抽出した特徴を2つの部分,構造特徴,内容特徴に分割する。
我々の手法は最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2023-12-25T01:19:47Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - ACTIVE:Augmentation-Free Graph Contrastive Learning for Partial
Multi-View Clustering [52.491074276133325]
部分的マルチビュークラスタリングの問題を解決するために,拡張自由グラフコントラスト学習フレームワークを提案する。
提案手法は、インスタンスレベルのコントラスト学習と欠落データ推論をクラスタレベルに高め、個々の欠落データがクラスタリングに与える影響を効果的に軽減する。
論文 参考訳(メタデータ) (2022-03-01T02:32:25Z) - Clustering Plotted Data by Image Segmentation [12.443102864446223]
クラスタリングアルゴリズムは、ラベルなしデータのパターンを検出する主要な分析手法の1つである。
本稿では,人間のクラスタリングデータに着想を得た,2次元空間におけるクラスタリングポイントの全く異なる方法を提案する。
私たちのアプローチであるVisual Clusteringは、従来のクラスタリングアルゴリズムよりもいくつかのアドバンテージを持っています。
論文 参考訳(メタデータ) (2021-10-06T06:19:30Z) - Clustering by Maximizing Mutual Information Across Views [62.21716612888669]
本稿では,共同表現学習とクラスタリングを組み合わせた画像クラスタリングのための新しいフレームワークを提案する。
提案手法は,様々な画像データセットにおける最先端の単一ステージクラスタリング手法よりも優れていた。
論文 参考訳(メタデータ) (2021-07-24T15:36:49Z) - Deep Visual Attention-Based Transfer Clustering [2.248500763940652]
クラスタリングは、教師なしの最も重要な学習問題と見なすことができる。
イメージクラスタリングは、ドメイン機械学習とコンピュータビジョンにおいて不可欠だが難しい課題である。
本稿では,より少ない変量データ分散を実現するため,既存のディープトランスファークラスタリングの改良について述べる。
論文 参考訳(メタデータ) (2021-07-06T06:26:15Z) - Towards Clustering-friendly Representations: Subspace Clustering via
Graph Filtering [16.60975509085194]
本稿では,スムーズな表現を実現するグラフフィルタリング手法を提案する。
画像および文書クラスタリングデータセットの実験により、我々の手法は最先端のサブスペースクラスタリング技術により改善されていることを示す。
アブレーション研究では、グラフフィルタリングがノイズを除去し、画像の構造を保存し、クラスの分離性を高めることが示されている。
論文 参考訳(メタデータ) (2021-06-18T02:21:36Z) - Graph Contrastive Clustering [131.67881457114316]
本稿では,クラスタリングタスクに適用可能な新しいグラフコントラスト学習フレームワークを提案し,gcc(graph constrastive clustering)法を考案した。
特に、グラフラプラシアンに基づくコントラスト損失は、より識別的かつクラスタリングフレンドリーな特徴を学ぶために提案されている。
一方で、よりコンパクトなクラスタリング割り当てを学ぶために、グラフベースのコントラスト学習戦略が提案されている。
論文 参考訳(メタデータ) (2021-04-03T15:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。