論文の概要: A Generalized Framework for Predictive Clustering and Optimization
- arxiv url: http://arxiv.org/abs/2305.04364v1
- Date: Sun, 7 May 2023 19:56:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-09 16:12:55.697634
- Title: A Generalized Framework for Predictive Clustering and Optimization
- Title(参考訳): 予測クラスタリングと最適化のための一般化フレームワーク
- Authors: Aravinth Chembu, Scott Sanner
- Abstract要約: クラスタリングは強力で広く使われているデータサイエンスツールです。
本稿では,予測クラスタリングのための一般化最適化フレームワークを定義する。
また,大域的最適化のためにMILP(mixed-integer linear programming)を利用する共同最適化手法を提案する。
- 参考スコア(独自算出の注目度): 18.06697544912383
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Clustering is a powerful and extensively used data science tool. While
clustering is generally thought of as an unsupervised learning technique, there
are also supervised variations such as Spath's clusterwise regression that
attempt to find clusters of data that yield low regression error on a
supervised target. We believe that clusterwise regression is just a single
vertex of a largely unexplored design space of supervised clustering models. In
this article, we define a generalized optimization framework for predictive
clustering that admits different cluster definitions (arbitrary point
assignment, closest center, and bounding box) and both regression and
classification objectives. We then present a joint optimization strategy that
exploits mixed-integer linear programming (MILP) for global optimization in
this generalized framework. To alleviate scalability concerns for large
datasets, we also provide highly scalable greedy algorithms inspired by the
Majorization-Minimization (MM) framework. Finally, we demonstrate the ability
of our models to uncover different interpretable discrete cluster structures in
data by experimenting with four real-world datasets.
- Abstract(参考訳): クラスタリングは強力で広く使われているデータサイエンスツールです。
クラスタリングは一般に教師なし学習技術と考えられているが、Spathのクラスタワイズレグレッションのような教師なしのバリエーションもあり、教師付きターゲット上で低い回帰誤差をもたらすデータのクラスタを見つけようとする。
クラスタワイズ回帰は、教師付きクラスタリングモデルのほとんど探索されていない設計空間の単一の頂点に過ぎないと我々は信じている。
本稿では,クラスタ定義(任意点割り当て,最接近点,バウンディングボックス)と回帰的および分類的目的の両方を許容する,予測的クラスタリングのための一般化最適化フレームワークを定義する。
次に、この一般化フレームワークにおける大域的最適化のために混合整数線形計画(milp)を利用する共同最適化戦略を提案する。
大規模データセットのスケーラビリティに関する懸念を軽減するため,Majorization-Minimization (MM)フレームワークにヒントを得た,高度にスケーラブルなグレディアルゴリズムも提供する。
最後に,4つの実世界のデータセットを実験することにより,データ中の異なる解釈可能な離散クラスタ構造を明らかにするモデルの有効性を実証する。
関連論文リスト
- Distributional Reduction: Unifying Dimensionality Reduction and
Clustering with Gromov-Wasserstein Projection [50.51460159104604]
教師なし学習は、潜在的に大きな高次元データセットの基盤構造を捉えることを目的としている。
伝統的に、これは次元還元法を用いて解釈可能な空間にデータを投影したり、意味のあるクラスタにポイントを整理する。
私たちは新しい視点 – 流通の視点 – を提供しています。
我々はクラスタリングと次元還元を分散還元と呼ばれる単一のフレームワークに統合する。
論文 参考訳(メタデータ) (2024-02-03T19:00:19Z) - Transferable Deep Clustering Model [14.073783373395196]
本稿では,データサンプルの分布に応じてクラスタセントロイドを自動的に適応できる,転送可能な新しいディープクラスタリングモデルを提案する。
提案手法では, 試料との関係を計測することで, センチロイドを適応できる新しい注意型モジュールを提案する。
合成および実世界の両方のデータセットに対する実験結果から,提案した移動学習フレームワークの有効性と有効性を示す。
論文 参考訳(メタデータ) (2023-10-07T23:35:17Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - Instance-Optimal Cluster Recovery in the Labeled Stochastic Block Model [79.46465138631592]
観測されたラベルを用いてクラスタを復元する効率的なアルゴリズムを考案する。
本稿では,期待値と高い確率でこれらの下位境界との性能を一致させる最初のアルゴリズムであるIACを提案する。
論文 参考訳(メタデータ) (2023-06-18T08:46:06Z) - Interpretable Deep Clustering [3.9596068699962315]
本稿では,インスタンスとクラスタレベルでの解釈可能なクラスタ割り当てを予測する,新たなディープラーニングフレームワークを提案する。
提案手法は,合成データと実データを用いてクラスタ割り当てを確実に予測できることを示す。
論文 参考訳(メタデータ) (2023-06-07T21:08:09Z) - Hard Regularization to Prevent Deep Online Clustering Collapse without
Data Augmentation [65.268245109828]
オンラインディープクラスタリング(オンラインディープクラスタリング)とは、機能抽出ネットワークとクラスタリングモデルを組み合わせて、クラスタラベルを処理された各新しいデータポイントまたはバッチに割り当てることである。
オフラインメソッドよりも高速で汎用性が高いが、オンラインクラスタリングは、エンコーダがすべての入力を同じポイントにマッピングし、すべてを単一のクラスタに配置する、崩壊したソリューションに容易に到達することができる。
本稿では,データ拡張を必要としない手法を提案する。
論文 参考訳(メタデータ) (2023-03-29T08:23:26Z) - A distribution-free mixed-integer optimization approach to hierarchical
modelling of clustered and longitudinal data [0.0]
クラスタ・アウェア・レグレッションのためのMIO(mixed-integer Optimization)アプローチを作成します。
直流法である線形混合効果回帰法(LMEM)と比較した。
我々の方法は非常に解釈可能な方法で定式化されているかを示す。
論文 参考訳(メタデータ) (2023-02-06T23:34:51Z) - Deep Conditional Gaussian Mixture Model for Constrained Clustering [7.070883800886882]
制約付きクラスタリングは、部分的にラベル付けされたデータの増加量に関する事前情報を利用することができる。
本稿では、直感的で解釈可能で、勾配変動推論の枠組みで効率的に訓練できる制約付きクラスタリングのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-11T13:38:09Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。