論文の概要: Kernel KMeans clustering splits for end-to-end unsupervised decision
trees
- arxiv url: http://arxiv.org/abs/2402.12232v1
- Date: Mon, 19 Feb 2024 15:39:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 16:01:53.675168
- Title: Kernel KMeans clustering splits for end-to-end unsupervised decision
trees
- Title(参考訳): Kernel KMeansクラスタリングによるエンドツーエンドの教師なし決定ツリーの分割
- Authors: Louis Ohl, Pierre-Alexandre Mattei, Micka\"el Leclercq, Arnaud Droit,
Fr\'ed\'eric Precioso
- Abstract要約: 本稿では,クラスタリングのための非教師付きバイナリツリーであるKauriについて紹介する。
この方法は、セントロイドの定義を必要とせず、カーネルKMeansの目的を欲しがる最大化する。
他のカーネルでは、KauriはカーネルKMeansとCART決定ツリーの結合よりも優れていることが多い。
- 参考スコア(独自算出の注目度): 16.539007424389254
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Trees are convenient models for obtaining explainable predictions on
relatively small datasets. Although there are many proposals for the end-to-end
construction of such trees in supervised learning, learning a tree end-to-end
for clustering without labels remains an open challenge. As most works focus on
interpreting with trees the result of another clustering algorithm, we present
here a novel end-to-end trained unsupervised binary tree for clustering: Kauri.
This method performs a greedy maximisation of the kernel KMeans objective
without requiring the definition of centroids. We compare this model on
multiple datasets with recent unsupervised trees and show that Kauri performs
identically when using a linear kernel. For other kernels, Kauri often
outperforms the concatenation of kernel KMeans and a CART decision tree.
- Abstract(参考訳): ツリーは比較的小さなデータセットで説明可能な予測を得るために便利なモデルである。
教師あり学習において、このような木をエンドツーエンドに構築する提案は数多くあるが、ラベルなしでクラスタリングするための木をエンドツーエンドに学習することは、まだオープンな課題である。
多くの研究が、別のクラスタリングアルゴリズムの結果をツリーで解釈することに集中しているので、ここではクラスタリングのための新しいエンドツーエンドの訓練を受けていないバイナリツリー、Kauriを紹介します。
この方法は、セントロイドの定義を必要とせず、カーネルKMeansの目的を欲しがる最大化する。
複数のデータセットでこのモデルを最近の教師なしツリーと比較し、線形カーネルを使用する場合、kauriは同じ性能を示す。
他のカーネルでは、kauriはしばしばカーネルkmeanとカート決定ツリーの結合よりも優れている。
関連論文リスト
- ODTE -- An ensemble of multi-class SVM-based oblique decision trees [0.7182449176083623]
ODTEは、斜め決定木をベース分類子として使用する新しいアンサンブルである。
斜め決定木を育成するための基本アルゴリズムSTreeを紹介する。
ODTEは一貫してライバルより上位に位置する。
論文 参考訳(メタデータ) (2024-11-20T14:58:32Z) - Decision Trees for Interpretable Clusters in Mixture Models and Deep Representations [5.65604054654671]
混合モデルに対する説明可能性-雑音比の概念を導入する。
本研究では,混合モデルを入力として,データに依存しない時間に適切な木を構築するアルゴリズムを提案する。
結果の決定ツリーの誤り率について,上と下の境界を証明した。
論文 参考訳(メタデータ) (2024-11-03T14:00:20Z) - Learning a Decision Tree Algorithm with Transformers [75.96920867382859]
メタ学習によってトレーニングされたトランスフォーマーベースのモデルであるMetaTreeを導入し、強力な決定木を直接生成する。
我々は、多くのデータセットに欲求決定木とグローバルに最適化された決定木の両方を適合させ、MetaTreeを訓練して、強力な一般化性能を実現する木のみを生成する。
論文 参考訳(メタデータ) (2024-02-06T07:40:53Z) - Hierarchical clustering with dot products recovers hidden tree structure [53.68551192799585]
本稿では,階層構造の回復に着目した凝集クラスタリングアルゴリズムの新しい視点を提案する。
クラスタを最大平均点積でマージし、例えば最小距離やクラスタ内分散でマージしないような、標準的なアルゴリズムの単純な変種を推奨する。
このアルゴリズムにより得られた木は、汎用確率的グラフィカルモデルの下で、データ中の生成的階層構造をボナフェイド推定することを示した。
論文 参考訳(メタデータ) (2023-05-24T11:05:12Z) - Exact and Approximate Hierarchical Clustering Using A* [51.187990314731344]
クラスタリングのA*探索に基づく新しいアプローチを紹介します。
A*と新しいエンフォレリスデータ構造を組み合わせることで、禁止的に大きな検索空間を克服します。
実験により,本手法は粒子物理利用事例や他のクラスタリングベンチマークにおいて,ベースラインよりもかなり高品質な結果が得られることを示した。
論文 参考訳(メタデータ) (2021-04-14T18:15:27Z) - Growing Deep Forests Efficiently with Soft Routing and Learned
Connectivity [79.83903179393164]
この論文は、いくつかの重要な側面で深い森林のアイデアをさらに拡張します。
我々は、ノードがハードバイナリ決定ではなく、確率的ルーティング決定、すなわちソフトルーティングを行う確率的ツリーを採用する。
MNISTデータセットの実験は、私たちの力のある深部森林が[1]、[3]よりも優れたまたは匹敵するパフォーマンスを達成できることを示しています。
論文 参考訳(メタデータ) (2020-12-29T18:05:05Z) - (Decision and regression) tree ensemble based kernels for regression and
classification [2.28438857884398]
Breiman's random forest (RF) や Gradient Boosted Trees (GBT) のような木に基づくアンサンブルは暗黙のカーネルジェネレータとして解釈できる。
連続目標に対して、RF/GBTカーネルは高次元シナリオにおいてそれぞれのアンサンブルと競合することを示す。
回帰と分類のための実際のデータセットの結果を提供し、これらの洞察が実際にどのように活用されるかを示します。
論文 参考訳(メタデータ) (2020-12-19T16:52:58Z) - Convex Polytope Trees [57.56078843831244]
コンベックスポリトープ木(CPT)は、決定境界の解釈可能な一般化によって決定木の系統を拡張するために提案される。
木構造が与えられたとき,木パラメータに対するCPTおよび拡張性のあるエンドツーエンドトレーニングアルゴリズムを効率的に構築する。
論文 参考訳(メタデータ) (2020-10-21T19:38:57Z) - From Trees to Continuous Embeddings and Back: Hyperbolic Hierarchical
Clustering [33.000371053304676]
本稿では,Dasguptaの離散最適化問題に対して,証明可能な品質保証を用いた最初の連続緩和を提案する。
勾配勾配勾配の近似解でさえ、凝集性クラスタリングよりも優れた品質を有することを示す。
また、下流分類タスクにおけるエンドツーエンドトレーニングによるHypHCの柔軟性についても強調する。
論文 参考訳(メタデータ) (2020-10-01T13:43:19Z) - MurTree: Optimal Classification Trees via Dynamic Programming and Search [61.817059565926336]
動的プログラミングと探索に基づいて最適な分類木を学習するための新しいアルゴリズムを提案する。
当社のアプローチでは,最先端技術が必要とする時間のごく一部しか使用せず,数万のインスタンスでデータセットを処理することが可能です。
論文 参考訳(メタデータ) (2020-07-24T17:06:55Z) - Tree Index: A New Cluster Evaluation Technique [2.790947019327459]
ここでは、Tree Indexと呼ばれるクラスタ評価手法を紹介する。
私たちのツリーインデックスは、最小記述長の複雑さを伴わずに容易に学習できるクラスタ間のマージンを見つけています。
脳のデータセット上のクラスタリング結果(様々な技術によって達成される)において、Tree Indexは合理的なクラスタと非感受性なクラスタを区別する。
論文 参考訳(メタデータ) (2020-03-24T13:41:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。