論文の概要: ODTE -- An ensemble of multi-class SVM-based oblique decision trees
- arxiv url: http://arxiv.org/abs/2411.13376v1
- Date: Wed, 20 Nov 2024 14:58:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-21 16:10:13.879172
- Title: ODTE -- An ensemble of multi-class SVM-based oblique decision trees
- Title(参考訳): ODTE -- マルチクラスSVMベースの斜め決定ツリーのアンサンブル
- Authors: Ricardo Montañana, José A. Gámez, José M. Puerta,
- Abstract要約: ODTEは、斜め決定木をベース分類子として使用する新しいアンサンブルである。
斜め決定木を育成するための基本アルゴリズムSTreeを紹介する。
ODTEは一貫してライバルより上位に位置する。
- 参考スコア(独自算出の注目度): 0.7182449176083623
- License:
- Abstract: We propose ODTE, a new ensemble that uses oblique decision trees as base classifiers. Additionally, we introduce STree, the base algorithm for growing oblique decision trees, which leverages support vector machines to define hyperplanes within the decision nodes. We embed a multiclass strategy -- one-vs-one or one-vs-rest -- at the decision nodes, allowing the model to directly handle non-binary classification tasks without the need to cluster instances into two groups, as is common in other approaches from the literature. In each decision node, only the best-performing model SVM -- the one that minimizes an impurity measure for the n-ary classification -- is retained, even if the learned SVM addresses a binary classification subtask. An extensive experimental study involving 49 datasets and various state-of-the-art algorithms for oblique decision tree ensembles has been conducted. Our results show that ODTE ranks consistently above its competitors, achieving significant performance gains when hyperparameters are carefully tuned. Moreover, the oblique decision trees learned through STree are more compact than those produced by other algorithms evaluated in our experiments.
- Abstract(参考訳): 斜め決定木を基本分類器として用いる新しいアンサンブルであるODTEを提案する。
さらに,選択ノード内の超平面を定義するために,サポートベクトルマシンを活用する斜め決定木を育成するためのベースアルゴリズムSTreeを導入する。
決定ノードに1-vs-oneまたは1-vs-restというマルチクラス戦略を組み込んで、インスタンスを2つのグループにクラスタ化することなく、モデルが非バイナリ分類タスクを直接処理できるようにします。
各決定ノードでは、学習したSVMがバイナリ分類サブタスクに対処しても、最高の性能モデルSVM(n-ary分類の不純物尺度を最小限にするモデル)のみが保持される。
斜め決定木アンサンブルのための49のデータセットと様々な最先端アルゴリズムに関する広範な実験研究が実施されている。
以上の結果から,ODTEは競争相手よりも常に上位にランクされ,過度パラメータを慎重に調整した場合に高い性能向上が達成された。
さらに、STreeを用いて学習した斜め決定木は、我々の実験で評価された他のアルゴリズムよりもコンパクトである。
関連論文リスト
- Learning Deep Tree-based Retriever for Efficient Recommendation: Theory and Method [76.31185707649227]
効率的なレコメンデーションのために,Deep Tree-based Retriever (DTR)を提案する。
DTRは、トレーニングタスクを、同じレベルでツリーノード上のソフトマックスベースのマルチクラス分類としてフレーム化している。
非リーフノードのラベル付けによって引き起こされる準最適性を緩和するため、損失関数の補正法を提案する。
論文 参考訳(メタデータ) (2024-08-21T05:09:53Z) - MOKD: Cross-domain Finetuning for Few-shot Classification via Maximizing Optimized Kernel Dependence [97.93517982908007]
NCCは、ドメイン間数ショットの分類において、少数ショットの分類が可能なメートル法空間を構築するために表現を学ぶことを目的としている。
本稿では,異なるクラスから得られた2つの標本の NCC 学習表現に高い類似性があることを見出した。
ラベル付きデータによって示されるクラスタ構造にマッチするクラス固有の表現の集合を学習するために、最適化されたカーネル依存(MOKD)を最大化する二段階最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-29T05:59:52Z) - Kernel KMeans clustering splits for end-to-end unsupervised decision
trees [16.539007424389254]
本稿では,クラスタリングのための非教師付きバイナリツリーであるKauriについて紹介する。
この方法は、セントロイドの定義を必要とせず、カーネルKMeansの目的を欲しがる最大化する。
他のカーネルでは、KauriはカーネルKMeansとCART決定ツリーの結合よりも優れていることが多い。
論文 参考訳(メタデータ) (2024-02-19T15:39:39Z) - Learning a Decision Tree Algorithm with Transformers [75.96920867382859]
メタ学習によってトレーニングされたトランスフォーマーベースのモデルであるMetaTreeを導入し、強力な決定木を直接生成する。
我々は、多くのデータセットに欲求決定木とグローバルに最適化された決定木の両方を適合させ、MetaTreeを訓練して、強力な一般化性能を実現する木のみを生成する。
論文 参考訳(メタデータ) (2024-02-06T07:40:53Z) - Hierarchical clustering with dot products recovers hidden tree structure [53.68551192799585]
本稿では,階層構造の回復に着目した凝集クラスタリングアルゴリズムの新しい視点を提案する。
クラスタを最大平均点積でマージし、例えば最小距離やクラスタ内分散でマージしないような、標準的なアルゴリズムの単純な変種を推奨する。
このアルゴリズムにより得られた木は、汎用確率的グラフィカルモデルの下で、データ中の生成的階層構造をボナフェイド推定することを示した。
論文 参考訳(メタデータ) (2023-05-24T11:05:12Z) - Multiclass Optimal Classification Trees with SVM-splits [1.5039745292757671]
本稿では, 木型分類規則を多クラスインスタンスに対して構築するための, 数学的最適化に基づく新しい手法を提案する。
提案手法は,葉ノードを除いて,ラベルを一時的に取り除き,SVMで超平面を分離して2つのクラスに分類する分類木の構築から成り立っている。
論文 参考訳(メタデータ) (2021-11-16T18:15:56Z) - Hierarchical clustering by aggregating representatives in
sub-minimum-spanning-trees [5.877624540482919]
本稿では,クラスタリングデンドログラムを構築しながら,代表点を効果的に検出できる階層的クラスタリングアルゴリズムを提案する。
解析の結果,提案アルゴリズムはO(nlogn)時間複雑度とO(nlogn)空間複雑度を有し,大規模データ処理のスケーラビリティを示す。
論文 参考訳(メタデータ) (2021-11-11T07:36:55Z) - Robust Optimal Classification Trees Against Adversarial Examples [5.254093731341154]
本稿では,ユーザが特定した攻撃モデルに対して最適に堅牢な決定木を訓練する手法の集合を提案する。
逆学習において生じるmin-max最適化問題は、単一最小化定式化を用いて解くことができることを示す。
また,両部マッチングを用いた任意のモデルに対して,上界の対角精度を決定する手法を提案する。
論文 参考訳(メタデータ) (2021-09-08T18:10:49Z) - Succinct Explanations With Cascading Decision Trees [5.877164140116815]
そこで我々はCascading Decision Treesと呼ぶ新しい決定木モデルを提案する。
私たちの重要な洞察は、意思決定パスと説明パスの概念を分離することです。
カスケード決定木を新しいサンプルに適用すると、非常に短く簡潔な説明が得られる。
論文 参考訳(メタデータ) (2020-10-13T18:48:39Z) - Forest R-CNN: Large-Vocabulary Long-Tailed Object Detection and Instance
Segmentation [75.93960390191262]
我々は、オブジェクトカテゴリ間の関係に関する事前知識を利用して、きめ細かいクラスを粗い親クラスにクラスタリングする。
そこで本研究では,NMS再サンプリング法を提案する。
提案手法はフォレストR-CNNと呼ばれ,ほとんどのオブジェクト認識モデルに適用可能なプラグイン・アンド・プレイモジュールとして機能する。
論文 参考訳(メタデータ) (2020-08-13T03:52:37Z) - MurTree: Optimal Classification Trees via Dynamic Programming and Search [61.817059565926336]
動的プログラミングと探索に基づいて最適な分類木を学習するための新しいアルゴリズムを提案する。
当社のアプローチでは,最先端技術が必要とする時間のごく一部しか使用せず,数万のインスタンスでデータセットを処理することが可能です。
論文 参考訳(メタデータ) (2020-07-24T17:06:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。