論文の概要: Subspace Learning Machine (SLM): Methodology and Performance
- arxiv url: http://arxiv.org/abs/2205.05296v1
- Date: Wed, 11 May 2022 06:44:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-13 05:30:25.874047
- Title: Subspace Learning Machine (SLM): Methodology and Performance
- Title(参考訳): サブスペース学習機械(SLM)の方法論と性能
- Authors: Hongyu Fu, Yijing Yang, Vinod K. Mishra, C.-C. Jay Kuo
- Abstract要約: サブスペースラーニングマシン(SLM)は、フィードフォワード多層パーセプトロン(FF-MLP)、決定木(DT)、エクストリームラーニングマシン(ELM)にインスパイアされた新しい分類モデルである。
SLMはまず、各入力特徴の識別力を調べることにより、識別された部分空間である$S0$を識別する。
S0$の関数の確率的射影を使って1D部分空間を生成し、それぞれの部分空間に最適な分割を求める。
- 参考スコア(独自算出の注目度): 28.98486923400986
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Inspired by the feedforward multilayer perceptron (FF-MLP), decision tree
(DT) and extreme learning machine (ELM), a new classification model, called the
subspace learning machine (SLM), is proposed in this work. SLM first identifies
a discriminant subspace, $S^0$, by examining the discriminant power of each
input feature. Then, it uses probabilistic projections of features in $S^0$ to
yield 1D subspaces and finds the optimal partition for each of them. This is
equivalent to partitioning $S^0$ with hyperplanes. A criterion is developed to
choose the best $q$ partitions that yield $2q$ partitioned subspaces among
them. We assign $S^0$ to the root node of a decision tree and the intersections
of $2q$ subspaces to its child nodes of depth one. The partitioning process is
recursively applied at each child node to build an SLM tree. When the samples
at a child node are sufficiently pure, the partitioning process stops and each
leaf node makes a prediction. The idea can be generalized to regression,
leading to the subspace learning regressor (SLR). Furthermore, ensembles of
SLM/SLR trees can yield a stronger predictor. Extensive experiments are
conducted for performance benchmarking among SLM/SLR trees, ensembles and
classical classifiers/regressors.
- Abstract(参考訳): 本研究では,feedforward multilayer perceptron (ff-mlp) , decision tree (dt) およびextreme learning machine (elm) に触発されて,subspace learning machine (slm) と呼ばれる新しい分類モデルを提案する。
slm はまず、各入力特徴の判別力を調べることにより、識別部分空間 $s^0$ を識別する。
次に、$S^0$ の関数の確率的射影を使って 1D の部分空間を生成し、それぞれに最適な分割を求める。
これは超平面で$s^0$を分配することと同値である。
最高の$q$パーティションを選択し、その間に$2q$パーティションされたサブスペースが生成される。
決定ツリーのルートノードと2q$サブスペースの交差点に$S^0$を、深さ1の子ノードに割り当てます。
分割処理は各子ノードに再帰的に適用され、SLMツリーを構築する。
子ノードのサンプルが十分に純粋な場合、分割処理が終了し、各葉ノードが予測を行う。
このアイデアは回帰に一般化することができ、サブスペース学習回帰器(SLR)へと導かれる。
さらに、SLM/SLR木のアンサンブルはより強力な予測因子となる。
SLM/SLR木,アンサンブル,古典型分類器/回帰器間の性能ベンチマーク実験を行った。
関連論文リスト
- ODTE -- An ensemble of multi-class SVM-based oblique decision trees [0.7182449176083623]
ODTEは、斜め決定木をベース分類子として使用する新しいアンサンブルである。
斜め決定木を育成するための基本アルゴリズムSTreeを紹介する。
ODTEは一貫してライバルより上位に位置する。
論文 参考訳(メタデータ) (2024-11-20T14:58:32Z) - Projection by Convolution: Optimal Sample Complexity for Reinforcement Learning in Continuous-Space MDPs [56.237917407785545]
本稿では,円滑なベルマン作用素を持つ連続空間マルコフ決定過程(MDP)の一般クラスにおいて,$varepsilon$-optimal Policyを学習する問題を考察する。
我々のソリューションの鍵となるのは、調和解析のアイデアに基づく新しい射影技術である。
我々の結果は、連続空間 MDP における2つの人気と矛盾する視点のギャップを埋めるものである。
論文 参考訳(メタデータ) (2024-05-10T09:58:47Z) - Hierarchical Partitioning Forecaster [0.571097144710995]
我々はシーケンシャルな予測のための新しいアルゴリズム群、階層的分割予測(HPF)を考える。
私たちのゴールは、強力なモデルクラスに対して魅力的な理論的、後悔の保証を提供することです。
論文 参考訳(メタデータ) (2023-05-22T14:25:46Z) - Simplifying and Understanding State Space Models with Diagonal Linear
RNNs [56.33053691749856]
本研究は、離散化ステップを解消し、バニラ対角線形RNNに基づくモデルを提案する。
概念的にはるかに単純であるにもかかわらず、$mathrmDLR$は以前提案したSSMと同じくらいのパフォーマンスを示す。
また、合成シーケンス・ツー・シーケンス・タスクのスイートによって、SSMとアテンションベースモデルの表現性も特徴付ける。
論文 参考訳(メタデータ) (2022-12-01T18:53:06Z) - When are Local Queries Useful for Robust Learning? [25.832511407411637]
本研究では,学習者が局所的なクエリを用いてより多くのパワーを与えられる学習モデルについて検討する。
我々は、ロバストな経験的リスク最小化を行う最初の分布自由アルゴリズムを与える。
我々は、0,1n$でハーフスペースに対してロバストな学習アルゴリズムを与え、その後、精度に縛られた敵に対して$mathbbRn$でハーフスペースに対してロバスト性を保証する。
論文 参考訳(メタデータ) (2022-10-12T11:04:22Z) - Randomized Dimensionality Reduction for Facility Location and
Single-Linkage Clustering [13.208510864854894]
ランダム次元削減は高次元問題に対するアルゴリズムを高速化するための多用途ツールである。
本稿では,施設配置問題と単一リンク階層クラスタリング問題という2つのクラスタリング問題への適用について検討する。
論文 参考訳(メタデータ) (2021-07-05T05:55:26Z) - The Power of Subsampling in Submodular Maximization [51.629656762796564]
このアプローチは,既存の手法よりもはるかに単純であるにもかかわらず,最適/最先端の結果をもたらすことを示す。
我々は,映像要約,位置情報要約,映画推薦タスクにおけるアルゴリズムの有効性を実証的に示す。
論文 参考訳(メタデータ) (2021-04-06T20:25:57Z) - Deep Learning Meets Projective Clustering [66.726500395069]
NLPネットワークを圧縮するための一般的なアプローチは、埋め込み層を行列 $AinmathbbRntimes d$ としてエンコードすることである。
計算幾何学から遠射的クラスタリングに着想を得て、この部分空間を$k$部分空間の集合で置き換えることを提案する。
論文 参考訳(メタデータ) (2020-10-08T22:47:48Z) - From Two-Class Linear Discriminant Analysis to Interpretable Multilayer
Perceptron Design [31.446335485087758]
2クラス線形判別式解析(LDA)における閉形式解の存在
多層パーセプトロン(MLP)を2クラスLDAシステムの一般化として解釈する。
フィードフォワードのワンパス方式でネットワークアーキテクチャと全フィルタ重みを指定できる自動設計を提案する。
論文 参考訳(メタデータ) (2020-09-09T17:43:39Z) - Provably Efficient Reinforcement Learning for Discounted MDPs with
Feature Mapping [99.59319332864129]
本稿では,割引決定(MDP)のための強化学習について検討する。
本稿では,特徴写像を利用した新しいアルゴリズムを提案し,$tilde O(dsqrtT/ (1-gamma)2)$ regretを求める。
以上の結果から,提案した強化学習アルゴリズムは,最大1-γ-0.5$の係数でほぼ最適であることが示唆された。
論文 参考訳(メタデータ) (2020-06-23T17:08:54Z) - Learning Halfspaces with Tsybakov Noise [50.659479930171585]
テュバコフ雑音の存在下でのハーフスペースの学習可能性について検討する。
真半空間に関して誤分類誤差$epsilon$を達成するアルゴリズムを与える。
論文 参考訳(メタデータ) (2020-06-11T14:25:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。