論文の概要: A Generalized Framework for Predictive Clustering and Optimization
- arxiv url: http://arxiv.org/abs/2305.04364v1
- Date: Sun, 7 May 2023 19:56:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-09 16:12:55.697634
- Title: A Generalized Framework for Predictive Clustering and Optimization
- Title(参考訳): 予測クラスタリングと最適化のための一般化フレームワーク
- Authors: Aravinth Chembu, Scott Sanner
- Abstract要約: クラスタリングは強力で広く使われているデータサイエンスツールです。
本稿では,予測クラスタリングのための一般化最適化フレームワークを定義する。
また,大域的最適化のためにMILP(mixed-integer linear programming)を利用する共同最適化手法を提案する。
- 参考スコア(独自算出の注目度): 18.06697544912383
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Clustering is a powerful and extensively used data science tool. While
clustering is generally thought of as an unsupervised learning technique, there
are also supervised variations such as Spath's clusterwise regression that
attempt to find clusters of data that yield low regression error on a
supervised target. We believe that clusterwise regression is just a single
vertex of a largely unexplored design space of supervised clustering models. In
this article, we define a generalized optimization framework for predictive
clustering that admits different cluster definitions (arbitrary point
assignment, closest center, and bounding box) and both regression and
classification objectives. We then present a joint optimization strategy that
exploits mixed-integer linear programming (MILP) for global optimization in
this generalized framework. To alleviate scalability concerns for large
datasets, we also provide highly scalable greedy algorithms inspired by the
Majorization-Minimization (MM) framework. Finally, we demonstrate the ability
of our models to uncover different interpretable discrete cluster structures in
data by experimenting with four real-world datasets.
- Abstract(参考訳): クラスタリングは強力で広く使われているデータサイエンスツールです。
クラスタリングは一般に教師なし学習技術と考えられているが、Spathのクラスタワイズレグレッションのような教師なしのバリエーションもあり、教師付きターゲット上で低い回帰誤差をもたらすデータのクラスタを見つけようとする。
クラスタワイズ回帰は、教師付きクラスタリングモデルのほとんど探索されていない設計空間の単一の頂点に過ぎないと我々は信じている。
本稿では,クラスタ定義(任意点割り当て,最接近点,バウンディングボックス)と回帰的および分類的目的の両方を許容する,予測的クラスタリングのための一般化最適化フレームワークを定義する。
次に、この一般化フレームワークにおける大域的最適化のために混合整数線形計画(milp)を利用する共同最適化戦略を提案する。
大規模データセットのスケーラビリティに関する懸念を軽減するため,Majorization-Minimization (MM)フレームワークにヒントを得た,高度にスケーラブルなグレディアルゴリズムも提供する。
最後に,4つの実世界のデータセットを実験することにより,データ中の異なる解釈可能な離散クラスタ構造を明らかにするモデルの有効性を実証する。
関連論文リスト
- Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - Transferable Deep Clustering Model [14.073783373395196]
本稿では,データサンプルの分布に応じてクラスタセントロイドを自動的に適応できる,転送可能な新しいディープクラスタリングモデルを提案する。
提案手法では, 試料との関係を計測することで, センチロイドを適応できる新しい注意型モジュールを提案する。
合成および実世界の両方のデータセットに対する実験結果から,提案した移動学習フレームワークの有効性と有効性を示す。
論文 参考訳(メタデータ) (2023-10-07T23:35:17Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - Instance-Optimal Cluster Recovery in the Labeled Stochastic Block Model [79.46465138631592]
観測されたラベルを用いてクラスタを復元する効率的なアルゴリズムを考案する。
本稿では,期待値と高い確率でこれらの下位境界との性能を一致させる最初のアルゴリズムであるIACを提案する。
論文 参考訳(メタデータ) (2023-06-18T08:46:06Z) - Hard Regularization to Prevent Deep Online Clustering Collapse without
Data Augmentation [65.268245109828]
オンラインディープクラスタリング(オンラインディープクラスタリング)とは、機能抽出ネットワークとクラスタリングモデルを組み合わせて、クラスタラベルを処理された各新しいデータポイントまたはバッチに割り当てることである。
オフラインメソッドよりも高速で汎用性が高いが、オンラインクラスタリングは、エンコーダがすべての入力を同じポイントにマッピングし、すべてを単一のクラスタに配置する、崩壊したソリューションに容易に到達することができる。
本稿では,データ拡張を必要としない手法を提案する。
論文 参考訳(メタデータ) (2023-03-29T08:23:26Z) - Multi-objective Semi-supervised Clustering for Finding Predictive
Clusters [0.5371337604556311]
本研究は,クラスタリング問題に焦点をあて,結果変数に有意なコンパクトクラスタを見つけることを目的とする。
主な目標は、各クラスタでの観測が類似し、結果変数をこれらのクラスタを使用して同時に予測できるように、データポイントをパーティショニングすることである。
論文 参考訳(メタデータ) (2022-01-26T06:24:38Z) - Learning Statistical Representation with Joint Deep Embedded Clustering [2.1267423178232407]
StatDECは、共同統計表現学習とクラスタリングのための教師なしのフレームワークである。
実験により,これらの表現を用いることで,様々な画像データセットにまたがる不均衡な画像クラスタリングの結果を大幅に改善できることが示された。
論文 参考訳(メタデータ) (2021-09-11T09:26:52Z) - Deep Conditional Gaussian Mixture Model for Constrained Clustering [7.070883800886882]
制約付きクラスタリングは、部分的にラベル付けされたデータの増加量に関する事前情報を利用することができる。
本稿では、直感的で解釈可能で、勾配変動推論の枠組みで効率的に訓練できる制約付きクラスタリングのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-11T13:38:09Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。