論文の概要、ライセンス

# (参考訳) サブスペース学習機械(SLM)の方法論と性能 [全文訳有]

Subspace Learning Machine (SLM): Methodology and Performance ( http://arxiv.org/abs/2205.05296v1 )

ライセンス: CC BY 4.0
Hongyu Fu, Yijing Yang, Vinod K. Mishra, C.-C. Jay Kuo(参考訳) 本研究では,feedforward multilayer perceptron (ff-mlp) , decision tree (dt) およびextreme learning machine (elm) に触発されて,subspace learning machine (slm) と呼ばれる新しい分類モデルを提案する。 slm はまず、各入力特徴の判別力を調べることにより、識別部分空間 $s^0$ を識別する。 次に、$S^0$ の関数の確率的射影を使って 1D の部分空間を生成し、それぞれに最適な分割を求める。 これは超平面で$s^0$を分配することと同値である。 最高の$q$パーティションを選択し、その間に$2q$パーティションされたサブスペースが生成される。 決定ツリーのルートノードと2q$サブスペースの交差点に$S^0$を、深さ1の子ノードに割り当てます。 分割処理は各子ノードに再帰的に適用され、SLMツリーを構築する。 子ノードのサンプルが十分に純粋な場合、分割処理が終了し、各葉ノードが予測を行う。 このアイデアは回帰に一般化することができ、サブスペース学習回帰器(SLR)へと導かれる。 さらに、SLM/SLR木のアンサンブルはより強力な予測因子となる。 SLM/SLR木,アンサンブル,古典型分類器/回帰器間の性能ベンチマーク実験を行った。

Inspired by the feedforward multilayer perceptron (FF-MLP), decision tree (DT) and extreme learning machine (ELM), a new classification model, called the subspace learning machine (SLM), is proposed in this work. SLM first identifies a discriminant subspace, $S^0$, by examining the discriminant power of each input feature. Then, it uses probabilistic projections of features in $S^0$ to yield 1D subspaces and finds the optimal partition for each of them. This is equivalent to partitioning $S^0$ with hyperplanes. A criterion is developed to choose the best $q$ partitions that yield $2q$ partitioned subspaces among them. We assign $S^0$ to the root node of a decision tree and the intersections of $2q$ subspaces to its child nodes of depth one. The partitioning process is recursively applied at each child node to build an SLM tree. When the samples at a child node are sufficiently pure, the partitioning process stops and each leaf node makes a prediction. The idea can be generalized to regression, leading to the subspace learning regressor (SLR). Furthermore, ensembles of SLM/SLR trees can yield a stronger predictor. Extensive experiments are conducted for performance benchmarking among SLM/SLR trees, ensembles and classical classifiers/regresso rs.
公開日: Wed, 11 May 2022 06:44:51 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
Subspace Learning Machine (SLM): サブスペース学習機械(SLM) 0.71
Methodology and Performance Hongyu Fu, Yijing Yang, Student Member, IEEE Vinod K. Mishra, and C. 方法論と性能 ホンユフ、Yijing Yang、学生メンバー、IEEE Vinod K. Mishra、C.。 0.70
-C. Jay Kuo, Fellow, IEEE -C。 Jay Kuo,フェロー,IEEE 0.53
1 2 2 0 2 y a M 1 1 1 2 2 0 2 y a m 1 1 である。 0.50
] G L . s c [ ] G L。 sc [ 0.47
1 v 6 9 2 5 0 1 v 6 9 2 5 0 0.43
. 5 0 2 2 : v i X r a . 5 0 2 2 : v i X r a 0.42
Abstract—Inspired by the feedforward multilayer perceptron (FF-MLP), decision tree (DT) and extreme learning machine (ELM), a new classification model, called the subspace learning machine (SLM), is proposed in this work. 本稿では,feedforward multilayer perceptron (ff-mlp), decision tree (dt) およびextreme learning machine (elm) に着想を得たサブスペース学習機械 (slm) と呼ばれる新しい分類モデルを提案する。 0.73
SLM first identifies a discriminant subspace, S0, by examining the discriminant power of each input feature. SLMは、まず、各入力特徴の判別力を調べることにより、識別サブ空間S0を識別する。 0.61
Then, it uses probabilistic projections of features in S0 to yield 1D subspaces and finds the optimal partition for each of them. 次に、s0 の特徴の確率的射影を用いて 1d 部分空間を生成し、それらのそれぞれに最適な分割を見つける。 0.64
This is equivalent to partitioning S0 with hyperplanes. これは超平面で S0 を分割することと同値である。 0.51
A criterion is developed to choose the best q partitions that yield 2q partitioned subspaces among them. 2q分割された部分空間を産出する最良のqパーティションを選択するための基準が開発されている。
訳抜け防止モード: 基準が開発されます 2q分割された部分空間を与える最良のqパーティションを選択する。
0.68
We assign S0 to the root node of a decision tree and the intersections of 2q subspaces to its child nodes of depth one. 決定木の根ノードにs0を割り当て、深さ1の子ノードに2q部分空間の交点を割り当てる。 0.74
The partitioning process is recursively applied at each child node to build an SLM tree. 分割処理は各子ノードに再帰的に適用され、SLMツリーを構築する。
訳抜け防止モード: 分割処理は各子ノードに再帰的に適用される SLMツリーを構築する。
0.82
When the samples at a child node are sufficiently pure, the partitioning process stops and each leaf node makes a prediction. 子ノードのサンプルが十分に純粋な場合、分割処理が終了し、各葉ノードが予測を行う。 0.77
The idea can be generalized to regression, leading to the subspace learning regressor (SLR). このアイデアは回帰に一般化することができ、サブスペース学習回帰器(SLR)へと導かれる。 0.65
Furthermore, ensembles of SLM/SLR trees can yield a stronger predictor. さらに、SLM/SLR木のアンサンブルはより強力な予測因子となる。 0.48
Extensive experiments are conducted for performance benchmarking among SLM/SLR trees, ensembles and classical classifiers/regressors. SLM/SLR木,アンサンブル,古典型分類器/回帰器間の性能ベンチマーク実験を行った。 0.58
Machine Learning, Classification, Subspace Learning 機械学習、分類、サブスペース学習 0.81
I. INTRODUCTION I. イントロダクション 0.64
Feature-based classification models have been well studied for many decades. 特徴に基づく分類モデルは数十年にわたってよく研究されてきた。 0.61
Feature extraction and classification are treated as two separate modules in the classical setting. 特徴抽出と分類は古典的な設定では2つの別個のモジュールとして扱われる。 0.69
Attention has been shifted to deep learning (DL) in recent years. 近年,ディープラーニング (DL) に注意が移りつつある。 0.61
Feature learning and classification are handled jointly in DL models. 特徴学習と分類はDLモデルで共同で処理される。 0.80
Although the best performance of classification tasks is broadly achieved by DL through back propagation (BP), DL models suffer from lack of interpretability, high computational cost and high model complexity. 分類タスクの最高の性能は、逆伝播(BP)を通してDLによって広く達成されているが、DLモデルは解釈可能性の欠如、高い計算コスト、高モデルの複雑さに悩まされている。 0.63
Under the classical learning paradigm, we propose new high-performance classification and regression models with features as the input in this work. 古典的学習パラダイムの下では,本研究のインプットとして特徴を有する新しい高性能分類と回帰モデルを提案する。 0.78
Examples of classical classifiers/regressors include support vector machine (SVM) [1], decision tree (DT) [2], multilayer perceptron (MLP) [3], feedforward multilayer perceptron (FFMLP) [4] and extreme learning machine (ELM) [5]. 古典的分類器/回帰器の例としては、サポートベクトルマシン(SVM)[1]、決定木(DT)[2]、多層パーセプトロン(MLP)[3]、フィードフォワード多層パーセプトロン(FFMLP)[4]、極端な機械学習マシン(ELM)[5]がある。
訳抜け防止モード: 古典的な分類器/回帰器の例としては、サポートベクトルマシン (SVM ) [ 1 ] がある。 decision tree ( DT ) [ 2 ], multilayer perceptron (MLP ) [ 3 ] フィードフォワード多層パーセプトロン(FFMLP) [4 ] およびエクストリームラーニングマシン(ELM) [5 ]。
0.87
SVM, DT and FF-MLP share one common idea, i.e., feature space partitioning. SVM、DT、FF-MLPは1つの共通アイデアを共有している。 0.64
Yet, they achieve this objective by different means. しかし、異なる方法でこの目標を達成している。 0.71
SVM partitions the space by leveraging kernel functions and support vectors. SVMはカーネル関数とサポートベクタを利用して空間を分割する。 0.77
DT partitions one space into two subspaces DT は 1 つの空間を 2 つの部分空間に分割する 0.51
Hongyu Fu, Yijing Yang and C. 香港府、李氏、C氏。 0.28
-C. Jay Kuo are with Ming Hsieh Department of Electrical and Computer Engineering, University of Southern California, Los Angeles, CA 90089, USA, e-mails: hongyufu@usc.edu (Hongyu Fu), yijingya@usc.edu (Yijing Yang) and cckuo@ee.usc.edu (C.-C. Jay Kuo). -C。 Jay Kuoは、南カリフォルニア大学、ロサンゼルス校、CA 90089, USAのMing Hsieh Department of Electrical and Computer Engineeringの電子メール:hongyufu@usc.edu (Hongyu Fu)、yijingya@usc.edu (Yijing Yang)、cckuo@ee.usc.edu (C.-C. Jay Kuo)と共にいる。 0.63
Vinod K. Mishra is with Army Research Laboratory, Adelphi, Maryland, Vinod K. Mishraはメリーランド州アデルフィの陸軍研究所に勤務している。 0.65
USA, e-mail: vinod.k. 米国、eメール:vinod.k。 0.68
mishra.civ@army.mil (Vinod K. Mishra) mishra.civ@army.mil (Vinod K. Mishra) 0.38
This material is based on research sponsored by US Army Research この素材は アメリカ陸軍の研究が後援する研究に基づいています 0.73
Laboratory (ARL) under contract number W911NF2020157. 契約番号はW911NF2020157。 0.46
by selecting the most discriminant feature one at a time recursively. 一度に最も識別しやすい特徴を 再帰的に選びます 0.68
DT tends to overfit the training data when the tree depth is high. dtは木の深さが高いとトレーニングデータに過度に適合する傾向がある。 0.61
To avoid it, one can build multiple DTs, each of which is a weak classifier, and their ensemble yields a strong one, e g , the random forest (RF) classifier [6]. これを避けるために、複数のdtを構築でき、それぞれが弱い分類器であり、それらのアンサンブルは強い、例えばランダムフォレスト(rf)分類器[6]を生成する。
訳抜け防止モード: それを避けるために。 複数のDTを構築できるが、それぞれが弱い分類器である。 そのアンサンブルは、例えばランダム・フォレスト(RF)分類器 [6 ] のような強いものをもたらす。
0.71
Built upon linear discriminant analysis, FF-MLP uses the Gaussian mixture model (GMM) to capture feature distributions of multiple classes and adopts neuron pairs with weights of opposite signed vectors to represent partitioning hyperplanes. 線形判別分析に基づいて、FF-MLPはガウス混合モデル(GMM)を用いて複数のクラスの特徴分布を捕捉し、反対の符号付きベクトルの重みを持つニューロン対を採用して分割超平面を表現する。 0.74
The complexity of SVM and FF-MLP depends on the sample distribution in the feature space. SVMとFF-MLPの複雑さは、特徴空間のサンプル分布に依存する。 0.85
It is a nontrivial task to determine suitable partitions when the feature dimension is high and/or the sample distribution is complicated. 特徴次元が高い場合やサンプル分布が複雑である場合、適切なパーティションを決定するのは簡単ではない。 0.75
These challenges could limit the effectiveness and efficiency of SVM and FF-MLP. これらの課題は、SVMとFF-MLPの有効性と効率を制限できる。 0.59
Selecting a partition in DTs is easier since it is conducted on a single feature. DTでパーティションを選択するのは、単一の機能で実行されるため、簡単です。 0.69
Yet, the simplicity is paid by a price. しかし、シンプルさは価格によって決まる。 0.70
That is, the discriminant power of an individual feature is weak, and a DT results in a weak classifier. すなわち、個々の特徴の判別力は弱く、DTは弱い分類器となる。 0.57
As proposed in ELM [5], another idea of subspace partitioning is to randomly project a high-dimensional space to a 1D space and find the optimal split point in the associated 1D space. ELM [5] で提案されたように、部分空間分割の別の考え方は、1D空間に高次元空間をランダムに投影し、関連する1D空間の最適分割点を見つけることである。 0.71
Although ELM works theoretically, it is not efficient in practice if the feature dimension is high. ELMは理論的に機能するが、特徴次元が高い場合、実際は効率が良くない。 0.78
It takes a large number of trials and errors in finding good projections. 優れたプロジェクションを見つけるには、多くの試行とエラーが必要です。 0.59
A better strategy is needed. より良い戦略が必要だ。 0.86
By analyzing pros and cons of SVM, FF-MLP, DT and ELM, we attempt to find a balance between simplicity and effectiveness and propose a new classification-oriented machine learning model in this work. 本研究では,SVM,FF-MLP,DT,EMMの長所と短所を解析することにより,単純さと効率性のバランスを見つけ,新しい分類指向機械学習モデルを提案する。 0.81
Since it partitions an input feature space into multiple discriminant subspaces in a hierarchical manner, it is named the subspace learning machine (SLM). 入力特徴空間を階層的に複数の識別サブ空間に分割するため、サブスペース学習マシン(SLM)と呼ばれる。 0.73
Its basic idea is sketched below. 基本的な考え方は以下の通り。 0.55
Let X be the input feature space. X を入力特徴空間とする。 0.73
First, SLM identifies subspace S0 from X. If the dimension of X is low, we set S0 = X. If the dimension of X is high, we remove less discriminant features from X so that the dimension of S0 is lower than that of X. まず、SLM は X から部分空間 S0 を識別し、X の次元が低ければ S0 = X とする。
訳抜け防止モード: まず、slm は x から部分空間 s0 を識別する。 x の次元が高ければ、s0 = x とする。 x から差別的な特徴を取り除き s0 の次元は x の次元よりも小さい。
0.58
Next, SLM uses probabilistic projections of features in S0 to yield p 1D subspaces and find the optimal partition for each of them. 次に、SLM は S0 の特徴の確率的射影を用いて p 1D の部分空間を求め、それぞれに最適な分割を求める。 0.68
This is equivalent to partitioning S0 with 2p hyperplanes. これは S0 を 2p の超平面で分割することと同値である。 0.49
A criterion is developed to choose the best q partitions that yield 2q partitioned subspaces among them. 2q分割された部分空間を産出する最良のqパーティションを選択するための基準が開発されている。
訳抜け防止モード: 基準が開発されます 2q分割された部分空間を与える最良のqパーティションを選択する。
0.68
We assign S0 to the root node of a decision tree and the intersections of 2q subspaces to its child nodes of depth one. 決定木の根ノードにs0を割り当て、深さ1の子ノードに2q部分空間の交点を割り当てる。 0.74
The partitioning process is recursively applied at each child node to build an SLM tree until stopping criteria are met, then each leaf node makes a prediction. 分割処理は各子ノードに再帰的に適用され、停止基準を満たすまでSLMツリーを構築し、各葉ノードが予測を行う。 0.80
Generally, an SLM tree is wider and shallower than a DT. 一般的に、SLMツリーはDTよりも広く、浅い。 0.64
The prediction capability of an SLM tree is stronger than that of a single DT since it allows multiple decisions at a decision node. SLMツリーの予測能力は、決定ノードでの複数の決定を可能にするため、単一のDTよりも強い。 0.69
英語(論文から抽出)日本語訳スコア
Its performance can be further improved by ensembles of multiple SLM trees obtained by bagging and boosting. その性能は、複数のSLM木の包み込みと補強によりさらに向上することができる。 0.70
The idea can be generalized to regression, leading to the subspace learning regressor (SLR). このアイデアは回帰に一般化することができ、サブスペース学習回帰器(SLR)へと導かれる。 0.65
Extensive experiments are conducted for performance benchmarking among individual SLM/SLR trees, multi-tree ensembles and several classical classifiers and regressors. 個々のSLM/SLR木, 複数木のアンサンブル, 古典的分類器および回帰器間の性能ベンチマーク実験を行った。 0.63
They show that SLM and SLR offer light-weight high-performance classifiers and regressors, respectively. 彼らはSLMとSLRがそれぞれ軽量なハイパフォーマンス分類器と回帰器を提供することを示した。 0.53
The rest of this paper is organized as follows. 本論文の残りは以下のとおり整理される。 0.76
The SLM model is introduced in Sec. SLMモデルはSecに導入されている。 0.70
II. The ensemble design is proposed in Sec. II。 アンサンブルデザインはsecで提案されている。 0.63
III. Performance evaluation and benchmarking of SLM and popular classifiers are given in Sec. III。 SLMと人気のある分類器の性能評価とベンチマークはSec.jsで行われている。 0.66
IV. The generalization to SLR is discussed in Sec. IV。 SLR への一般化は Sec.NET で議論されている。 0.47
V. The relationship between SLM/SLR and other machine learning methods such as classification and regression tree (CART), MLP, ELM, RF and Gradient Boosting Decision Tree (GBDT) [7] is described in Sec. V.SLM/SLRと,分類・回帰木 (CART), MLP, ELM, RF, Gradient Boosting Decision Tree (GBDT) [7] などの他の機械学習手法との関係をSecに記載する。 0.80
VI. Finally, concluding remarks are given in Sec. VI。 最後に、結論はSecで述べられている。 0.67
VII. II. SUBSPACE LEARNING MACHINE (SLM) VII。 II。 表面学習機(SLM) 0.71
A. Motivation Consider an input feature space, X, containing L samples, where each sample has a D-dimensional feature vectors. A.動機 入力特徴空間 x は l 個のサンプルを含み、各サンプルは d-次元特徴ベクトルを持つ。 0.71
A sample is denoted by xl = (xl,1 ··· xl,d ··· , xl,D)T ∈ RD, サンプルは xl = (xl,1 ··· xl,d ··· , xl,D)T ∈ RD, 0.40
(1) where l = 1,··· , L. We use Fd to represent the dth feature set of xl, i.e., 1) l = 1,··· , L の場合 Fd を用いて xl の d 番目の特徴集合を表す。
訳抜け防止モード: (1) l = 1, · · ·, L. Fd を使って xl の d 番目の特徴集合を表現します。
0.79
Fd = {xl,d | 1 ≤ l ≤ L}. Fd = {xl,d | 1 ≤ l ≤ L} である。 0.93
(2) For a multi-class classification problem with K classes, each training feature vector has an associated class label in form of one-hot vector (2) K級の多クラス分類問題に対して、各訓練特徴ベクトルは1ホットベクトルの形で関連するクラスラベルを持つ。 0.62
yl = (yl,1,··· , yl,k,··· , yl,K)T ∈ RK, yl = (yl,1,··· , yl,k,··· , yl,K)T ∈ RK, 0.42
(3) where yl,k = 1 and yl,k(cid:48) = 0, k(cid:48) (cid:54)= k, (3) どこに yl,k = 1 および yl,k(cid:48) = 0, k(cid:48) (cid:54) = k 0.52
(4) if the lth sample belongs to class k, where 1 ≤ k, k(cid:48) ≤ K. Our goal is to partition the feature space, RD, into multiple subspaces hierarchically so that samples at leaf nodes are as pure as possible. 我々の目標は、特徴空間 rd を階層的に複数の部分空間に分割し、葉ノードのサンプルを可能な限り純粋なものにすることである。
訳抜け防止モード: (4) lth サンプルがクラス k に属する場合 ここで 1 ≤ k, k(cid:48 ) ≤ K は特徴空間 RD を階層的に複数の部分空間に分割することを目的としています。 葉のノードのサンプルは できる限り純粋です
0.89
It means that the majority of samples at a node is from the same class. これは、ノードのほとんどのサンプルが同じクラスから来ていることを意味する。 0.76
Then, we can assign all samples in the leaf node to the majority class. すると、リーフノードのすべてのサンプルをマジョリティクラスに割り当てることができます。 0.67
This process is adopted by a DT classifier. このプロセスはDT分類器によって採用される。 0.69
The root node is the whole sample space, and an intermediate or leaf node corresponds to a partitioned subspace. 根ノードはサンプル空間全体であり、中間またはリーフノードは分割された部分空間に対応する。 0.78
We use S0 to represent the sample space at the root node and Sm, m = 1,··· , M, to denote subspaces of child nodes of depth m in the tree. 我々はS0を用いて根ノードのサンプル空間を表現し、Sm, m = 1,··· , M を木内の深さ m の子ノードの部分空間を表す。 0.81
The efficiency of traditional DT methods could be poten- 従来のDT法の効率性について- 0.82
tially improved by two ideas. 2つのアイデアによって 改善されました 0.46
They are elaborated below. 2 以下に詳述する。 2 0.48
(a) (b) Fig. 1. (a) (b) 図1。 0.38
(a) An illustration of SLM, where space S0 is partitioned into 4 subspaces with two splits, and (a)空間s0を2つの分割からなる4つの部分空間に分割するslmの例 0.82
(b) the corresponding SLM tree with a root note and four child nodes. b) ルートノートと4つの子ノードを持つ対応するSLMツリー。 0.73
The DT is a special case of Eq (5), where a is set to the dth basis vector, ed, 1 ≤ d ≤ D. On one hand, this choice simplifies computational complexity, which is particularly attractive if D >> 1. dt は eq (5) の特別な場合であり、a は d 番目の基底ベクトル ed, 1 ≤ d ≤ d に設定される。
訳抜け防止モード: DT は Eq ( 5 ) の特別な場合である。 a は d 基底ベクトル ed にセットされます 1 ≤ d ≤ D 一方、この選択は計算複雑性を単純化する。 D > > 1 であれば特に魅力的である。
0.79
On the other hand, if there is no discriminant feature Fd, the decision tree will not be effective. 一方、識別可能な特徴fdが存在しない場合には、決定木は有効ではない。 0.56
It is desired to find a discriminant direction, a, so that the subspace, Fa, has a more discriminant power at a low computational cost. サブスペースであるfaが計算コストの低さでより識別力を有するように、識別方向aを求めることが望まれる。 0.54
2) N-ary split at one node: 2) 1つのノードで n-ary のスプリット。 0.56
One parent node in DT is split into two child nodes. DTの親ノードは2つの子ノードに分割される。 0.81
We may allow an n-ary split at the parent. 親で n-アリスプリットを許すかもしれない。 0.35
One example is shown in Fig 1 一例を図1に示します 0.83
(a) and (b), where space S0 is split into four disjoint subspaces. (a)及び (b) 空間 S0 を 4 つの非連結部分空間に分割する。 0.80
Generally, the n-ary split gives wider and shallower decision trees so that overfitting can be avoided more easily. 一般に、n-aryスプリットはより広く浅い決定木を与え、オーバーフィッティングを避けることができる。 0.68
The SLM method is motivated by these two ideas. SLM法はこれらの2つのアイデアに動機付けられている。 0.56
Although the high-level ideas are straightforward, their effective implementations are nontrivial. ハイレベルなアイデアは単純だが、効果的な実装は自明ではない。 0.53
They will be detailed in the next subsection. 1) Partitioning in flexibly chosen 1D subspace: 次の節で詳述する。 1) 柔軟に選択された1次元部分空間の分割 0.53
We may consider a general projected 1D subspace defined by 定義した一般射影1次元部分空間を考えることができる。 0.55
Fa = {f (a) | f (a) = aT x}, Fa = {f (a) | f (a) = aT x}, 0.40
where a = (a1,··· , ad,··· , aD)T , どこに a = (a1,··· , ad,··· , aD)T である。 0.74
||a|| = 1, ||a|| = 1 である。 0.48
(5) (6) B. Methodology (5) (6) B.方法論 0.56
Subspace partitioning in a high-dimensional space plays a fundamental role in the design of powerful machine learning classifiers. 高次元空間における部分空間分割は、強力な機械学習分類器の設計において基本的な役割を果たす。 0.68
Generally, we can categorize the partitioning strategies into two types: 一般的に、分割戦略を2つのタイプに分類できる。 0.77
1) search for an optimal split point in a projected 1D space (e g , DT) and 1)投影された1次元空間(例えば、dt)における最適分割点の探索と、 0.82
2) search for an optimal splitting hyperplane in a high-dimensional space (e g , SVM 2)高次元空間(例えばSVM)における最適分割超平面の探索 0.77
英語(論文から抽出)日本語訳スコア
and FF-MLP). およびff-mlp)。 0.51
Mathematically, both of them can be expressed in form of 数学的には、どちらも形式的に表現できる。 0.78
convenient choice of the cost function is the entropy value as defined by コスト関数の便利な選択は、定義されたエントロピー値である 0.84
3 aT x − b = 0, 3 x − b = 0 である。 0.57
(7) where −b is called the bias and (7) ここで −b はバイアスと呼ばれ 0.60
a = (a1,··· , ad,··· , aD)T , a = (a1,··· , ad,··· , aD)T である。 0.80
||a|| = 1, ||a|| = 1 である。 0.48
(8) is a unit normal vector that points to the surface normal direction. (8) 表面の正規方向を指し示す 単位正規ベクトルです 0.47
It is called the projection vector. これは射影ベクトルと呼ばれる。 0.78
Then, the full space, S, is split into two half subspaces: そして、全空間 S は2つの半部分空間に分割される。 0.82
S+ : aT x ≥ b, and S− : aT x < b. s+ : を x ≥ b で、s− : を x < b で表す。 0.77
(9) The challenge lies in finding good projection vector a so that samples of different classes are better separated. (9) 課題は、異なるクラスのサンプルがより分離されるように、良い射影ベクトル a を見つけることである。 0.54
It is related to the distribution of samples of different classes. それは異なるクラスのサンプルの分布に関連している。 0.83
For the first type of classifiers, they pre-select a set of candidate projection vectors, try them out one by one, and select the best one based on a certain criterion. 最初のタイプの分類器では、候補射影ベクトルの集合を事前に選択し、それらを一つずつ試し、ある基準に基づいて最良のものを選択する。 0.88
For the second type of classifiers, they use some criteria to choose good projection vectors. 2つ目の分類器では、良い射影ベクトルを選択するためにいくつかの基準を用いる。 0.64
For example, SVM first identifies support vectors and then finds the hyperplane that yields the largest separation (or margin) between two classes. 例えば、SVMはまずサポートベクトルを識別し、2つのクラス間で最大の分離(もしくはマージン)をもたらす超平面を見つける。 0.81
The complexity of the first type is significantly lower than that of the second type. 第1型の複雑さは第2型の複雑さよりも著しく低い。 0.70
In SLM, we attempt to find a mid-ground of the two. SLMでは,2つの中盤を見つけようとする。 0.59
That is, we generate a new 1D space as given by Fa = {f (a) | f (a) = aT x}, それは すなわち、Fa = {f (a) | f (a) = aT x} で与えられるような新しい 1D 空間を生成する。 0.76
(10) where a is a vector on the unit hypersphere in RD as defined in Eq (8). (10) ここで a は Eq (8) で定義されるRD の単位超球面上のベクトルである。 0.80
By following the first type of classifier, we would like to identify a set of candidate projection vectors. 最初のタイプの分類器に従うことで、候補の射影ベクトルのセットを識別したい。 0.72
Yet, their selection is done in a probabilistic manner. しかし、それらの選択は確率的に行われる。 0.81
Generally, it is not effective to draw a on the unit hypersphere uniformly. 一般に、単位超球面上のaを一様に描画することは有効ではない。 0.65
The criterion of effective projection vectors and their probalisitic selection will be presented in Secs. 有効射影ベクトルの基準とその確率的選択は Sec で示される。 0.63
II-B1-II-B3. ii-b1-ii-b3型。 0.19
Without loss of generality, we primarily focus on the projection vector selection at the root node in the following discussion. 一般性の喪失がなければ、次の議論ではルートノードにおける射影ベクトルの選択に主に焦点をあてる。 0.70
The same idea can be easily generalized to child nodes. 同じアイデアを子ノードに簡単に一般化することができる。 0.71
1) Selection Criterion: We use the discriminant feature test (DFT) [8] to evaluate the discriminant quality of the projected 1D subspace as given in Eq (10). 1)選択基準:eq(10)で与えられた投影された1次元部分空間の識別品質を評価するために識別特徴テスト(dft)[8]を使用する。 0.79
It is summarized below. For a given projection vector, a, we find the minimum and the maximum of projected values f (a) = aT x, which are denoted by fmin and fmax, respectively. 以下にまとめる。 与えられた射影ベクトル a に対して、それぞれ fmin と fmax で表される射影値 f(a) = aT x の最小値と最大値を求める。
訳抜け防止モード: 以下にまとめる。 与えられた射影ベクトル a に対して、最小値を求める。 そして、投影された値 f ( a ) = aT x の最大値。 fmin と fmax で表される。
0.61
We partition interval [fmin, fmax] into B bins uniformly and use bin boundaries as candidate thresholds. 間隔 [fmin, fmax] を b ビンに一様に分割し、bin 境界を候補しきい値として使用する。 0.70
One threshold, tb, b = 1,··· , B − 1, partitions interval [fmin, fmax] into two subintervals that define two sets: 1つのしきい値 tb, b = 1,···· , b − 1, 間隔 [fmin, fmax] を2つの集合を定義する2つの部分インターバルに分割する。 0.79
Fa,tb,+ = {f (a) | aT x ≥ tb}, Fa,tb,− = {f (a) | aT x < tb}. Fa,tb,+ = {f (a) | aT x ≥ tb}, Fa,tb,− = {f (a) | aT x < tb} である。 0.81
The bin number, B, is typically set to 16 [8]. ビン数 b は通常 16 [8] に設定される。 0.68
(11) (12) The quality of a split can be evaluated with the weighted sum of loss functions defined on the left and right subintervals: (11) (12) 分割の質は、左と右の中間区間で定義される損失関数の重み付き和で評価することができる。 0.56
La,tb = N+ La,tb = N+ 0.41
La,tb,+ + (13) where N+ =| Fa,tb,+ | and N− =| Fa,tb,− | are sample numbers in the left and right subintervals, respectively. La,tb,+ + (13) ここで n+ =| fa,tb,+ | と n− =| fa,tb,− | はそれぞれ左と右の部分インターバルのサンプル番号である。 0.61
One N+ + N− N+ + N− 一 N+ + N− N+ + N− 0.37
N− La,tb,−, n- La,tb,− 0.43
L = − C(cid:88) L = − C(cid:88) 0.47
pc log(pc), pc log (複数形 pc logs) 0.73
(14) c=1 (14) c=1 である。 0.37
where pc is the probability of samples in a certain set belonging to class c and C is the total number of classes. pc はクラス c に属するある集合におけるサンプルの確率であり、c はクラスの総数である。 0.77
In practice, the probability is estimated using the histogram. 実際には、ヒストグラムを用いて確率を推定する。 0.69
Finally, the discriminant power of a certain projection vector is defined as the minimum cost function across all threshold values: 最後に、ある射影ベクトルの判別力は、すべてのしきい値の最小コスト関数として定義される。 0.77
La,opt = min La,opt = min 0.42
tb La,tb . (15) tb という。 (15) 0.40
We search for projection vectors, a that provide small cost values as give by Eq (15). 我々は、Eq (15) によって与えられる小さなコスト値を提供する射影ベクトルを探索する。 0.85
The smaller, the better. より小さく、より良くなる。 0.82
2) Probabilistic Selection: We adopt a probabilistic mechanism to select one or multiple good projection vectors. 2) 確率的選択: 1つまたは複数のよい射影ベクトルを選択する確率的メカニズムを採用する。 0.80
To begin with, we express the project vector as まず、プロジェクトベクトルを表現します。 0.52
a = a1e1 + ··· , aded + ··· + aDeD, a = a1e1 + ··· , aded + ··· + aDeD, 0.38
(16) where ed, d = 1,··· , D, is the basis vector. (16) ここで ed, d = 1,··· , d は基底ベクトルである。 0.76
We evaluate the discriminant power of ed by setting a = ed and following the procedure in Sec. ed の判別力は a = ed を設定し、sec で手続きに従うことで評価する。 0.59
II-B1. Our probabilistic selection scheme is built upon one observation. II-B1。 確率的選択は一つの観察に基づいて行われる。 0.59
The discriminability of ed plays an important role in choosing a more discriminant a. EDの差別性は、より差別的なaを選択する上で重要な役割を果たす。 0.57
Thus, we rank ed according to their discriminant power measured by the cost function in Eq (15). したがって、Eq (15) のコスト関数によって測定される判別力に応じて、ed をランク付けする。 0.67
The newly ordered basis is d, d = 1,··· , D, which satisfies the following: denoted by e(cid:48) 1,opt ≤ Le(cid:48) Le(cid:48) (17) 新しく順序づけられた基底は d, d = 1,···· , d であり、次の式を満たす: e(cid:48) 1,opt ≤ le(cid:48) le(cid:48) (17) で表される。 0.82
2,opt ≤ ··· ≤ Le(cid:48) 2,opt ≤ ··· ≤ Le(cid:48) 0.43
D,opt. We can rewrite Eq (16) as d、opt。 eq (16) を書き換えることができます 0.76
a = a(cid:48) a = a(cid:48) 0.46
1e(cid:48) 1e(cid:48) 0.37
1 + ··· , a(cid:48) 1 + ··· , a (cid:48) 0.41
de(cid:48) de(cid:48) 0.42
d + ··· + a(cid:48) d + ··· + a (cid:48) 0.41
De(cid:48) D. de(cid:48) d である。 0.67
(18) We use three hyper-parameters to control the probabilistic (18) 確率制御に3つのハイパーパラメータを用いる 0.61
selection procedure. • Pd: the probability of selecting coefficient a(cid:48) 選択手順。 • pd:係数a(cid:48)を選択する確率 0.77
d Usually, Pd is higher for smaller d. d 通常、Pdはより小さいdに対して高い。 0.57
In the implementation, we adopt the exponential density function in form of 実装において、指数密度関数を形式として採用する。 0.69
Pd = β0 exp(−βd), Pd = β0 exp(−βd) 0.45
(19) • Ad: the dynamic range of coefficient a(cid:48) (19) •Ad:係数a(cid:48)のダイナミックレンジ 0.61
where β > 0 is a parameter and β0 is the corresponding normalization factor. β > 0 がパラメータであり、β0 が対応する正規化因子である。 0.84
To save the computation, we limit the values of a(cid:48) d and consider integer values within the dynamic range; namely, 計算を保存するために、a(cid:48) d の値を制限し、動的範囲内で整数値を考える。 0.74
d d = 0,±1, ±2, ··· , ±(cid:98)Ad(cid:99), a(cid:48) d d = 0,±1, ±2, ··· , ±(cid:98)Ad(cid:99), a(cid:48) 0.43
(20) where Ad is also known as the envelop parameter. (20) ここで ad は envelop パラメータとしても知られる。 0.58
Again, we adopt the exponential density function 再び指数密度関数を採用する。 0.62
Ad = α0 exp(−αd), Ad = α0 exp(−αd) 0.46
(21) where α > 0 is a parameter and α0 is the corresponding normalization factor in the implementation. (21) α > 0 はパラメータであり、α0 は実装における対応する正規化係数である。 0.61
When the search space in Eq (20) is relatively small with chosen hyperparameters, we exhaustively test all the values. Eq (20) の探索空間が選択されたハイパーパラメータで比較的小さい場合、全ての値を徹底的にテストする。 0.79
Otherwise, we select a partial set of the orientation そうでない場合は 向きの部分集合を選択します 0.73
英語(論文から抽出)日本語訳スコア
4 Fig. 3. An overview of the SLM system. 4 図3。 SLMシステムの概要 0.49
As a result, the correspondidg two hyperplanes have a small angle between them. その結果、対応する2つの超平面はそれらの間の角度が小さい。 0.73
To avoid this, we propose an iterative procedure to select multiple projection vectors. これを回避するために,複数の投影ベクトルを選択する反復手順を提案する。 0.73
To begin with, we choose the projection vector in Eq (23) that has the smallest cost as the first one. まず第一に、最小コストのeq (23) の射影ベクトルを選択する。
訳抜け防止モード: まず最初に、 Eq (23 ) の射影ベクトルは、最初のものよりも最小のコストである。
0.69
Next, we choose the second one from Eq (23) that minimizes its absolute cosine similarity value with the first one. 次に、Eq (23) から2番目のものを選び、その絶対コサイン類似度値を第一のものと最小化する。 0.72
We can repeat the same process by minimizing the maximum cosine similarities with the first two, etc. 最初の2つと最大コサイン類似度を最小化することで、同じプロセスを繰り返すことができる。 0.76
The iterative mini-max optimization process can be terminated by a pre-defined threshold value, θminimax. 繰り返しミニマックス最適化プロセスは、予め定義された閾値 θminimax で終了することができる。 0.74
4) SLM Tree Construction: We illustrate the SLM tree construction process in Fig 3. 4) SLM木構築: 図3のSLM木構築プロセスについて説明する。 0.76
It contains the following steps. 1) Check the discriminant power of D input dimensions and find discriminant input subspace S0 with D0 dimensions among D. 以下の手順がある。 1) D 入力次元の判別パワーを確認し、D 内の D0 次元の判別入力部分空間 S0 を求める。 0.69
2) Generate p projection vectors that project the selected input subspace to p 1D subspaces. 2) 選択された入力部分空間をp 1d部分空間に投影するp射影ベクトルを生成する。 0.70
The projected space is denoted by ˜S. 射影空間は .S で表される。 0.69
3) Select the best q 1D spaces from p candidate subspaces based on discriminability and correlation and split the node accordingly, which is denoted by S1. 3) 識別可能性と相関に基づいて p 候補部分空間から最適な q 1D 空間を選択し、S1 で表されるノードを分割する。 0.83
The node split process is recursively conducted to build nodes of the SLM tree. ノード分割プロセスは、SLMツリーのビルドノードに対して再帰的に実行される。 0.70
The following stopping criteria are adopted to avoid overfitting at a node. ノードのオーバーフィットを避けるために、以下の停止基準が適用される。 0.61
1) The depth of the node is greater than user’s pre-selected threshold (i.e. the hyper-parameter for the maximum depth of an SLM tree). 1)ノードの深さは、ユーザの選択したしきい値(slmツリーの最大深さのハイパーパラメータ)よりも大きい。 0.74
2) The number of samples at the node is less than user’s pre-selected threshold (i.e. the hyper-parameter for the minimum sample number per node). 2) ノードにおけるサンプル数は,ユーザの選択したしきい値(ノード当たりの最小サンプル数に対するハイパーパラメータ)よりも少ない。 0.84
3) The loss at the node is less than user’s pre-selection threshold (i.e. the hyper-parameter for the minimum loss function per node). 3)ノードにおける損失は,ユーザの事前選択しきい値(ノード当たりの損失関数最小値のハイパーパラメータ)よりも小さい。 0.82
III. SLM FOREST AND SLM BOOST III。 slm林とslmブースト 0.57
Ensemble methods are commonly used in the machine learning field to boost the performance. アンサンブルメソッドは、パフォーマンスを高めるために機械学習の分野で一般的に使用される。 0.67
An ensemble model aims to obtain better performance than each constituent model alone. アンサンブルモデルは、各構成モデル単独よりも優れた性能を得ることを目指している。 0.64
With DTs as the constituent weak learners, the bootstrap aggregating or bagging method, (e g , RF) and the boosting method (e g GBDT) are the most popular ensemble methods. DTを弱学習者として、ブートストラップ集約法(eg , RF)とブースティング法(eg GBDT)が最も一般的なアンサンブル法である。
訳抜け防止モード: dtsを構成的弱学習者として、ブートストラップ集約または袋詰め法(例:bootstrap aggregating or bagging method) rf)と昇圧法(例えばgbdt)が最も人気のあるアンサンブル法である。
0.59
As compared to other classical machine learning methods, they often achieve better performance when applied to real 他の古典的機械学習手法と比較すると、現実に適用した方がパフォーマンスが良くなることが多い。
訳抜け防止モード: 他の古典的機械学習手法と比較すると 現実に当てはまるとパフォーマンスが良くなります
0.82
Fig. 2. Illustration of the probabilistic selection process, where the envelop function Ad that provides a bound on the magnitude of coefficients a(cid:48) d in the orientation vector. 図2。 確率的選択過程の例では、向きベクトルの係数 a(cid:48) d の大きさに境界を与えるエンベロープ関数 ad がある。 0.66
The dimensions with black dots are selected dimensions, and dots in one vertical line are integers for selection for each dimension. 黒い点を持つ次元は選択次元であり、1つの垂直線の点は各次元の選択のための整数である。 0.73
In this example, the selected dimensions are a(cid:48) 6. この例では、選択された次元は a(cid:48) 6 である。 0.66
For each trial, we select one black dot per vertical line to form an orientation vector. 各試行で、垂直線ごとに1つの黒点を選択して向き付けベクトルを形成する。 0.71
The search can be done exhaustively or randomly with the uniform distribution. 探索は一様分布で徹底的にあるいはランダムに行うことができる。 0.75
5 and a(cid:48) 5およびa(cid:48) 0.44
1, a(cid:48) 1, a(cid:48) 0.46
2, a(cid:48) 2, a(cid:48) 0.46
4, a(cid:48) 4, a(cid:48) 0.46
vector coefficients probabilistically under the uniform distribution. 均一分布の下で確率的にベクトル係数。 0.77
• R: the number of selected coefficients, a(cid:48) •R:選択された係数の数、a(cid:48) 0.85
d, in Eq (18) d, in Eq (18) 0.43
If D is large, we only select a subset of R coefficients, where R << D to save computation. D が大きければ R 係数の部分集合のみを選び、R<<D は計算を節約する。
訳抜け防止モード: D が大きければ、R 係数の部分集合のみを選択する。 ここで R < < < D は計算を保存する。
0.73
The dynamic ranges of the remaining (D − R) coefficients are all set to zero. 残りの (D − R) 係数の動的範囲はすべて 0 に設定される。 0.79
By fixing parameters β, α and R in one round of a generation, the total search space of a to be tested by DFT lies between 1世代1ラウンドでパラメータ β, α, R を固定することにより、DFT によって検査される a の総探索空間は、その中間に位置する。
訳抜け防止モード: パラメータ β, α, R を1世代1ラウンドで固定する。 DFTによって検査されるaの総検索空間は、その中間にある
0.77
U.B. = ΠR U.B. = .R. 0.27
d=1(2Ad + 1), L.B. = ΠD d=1(2Ad + 1), L.B. = .D. 0.37
d=D+1−R(2Ad + 1), d=D+1−R(2Ad + 1) 0.33
(22) where U.B and L.B. mean upper and lower bounds, respectively. (22) U.B. と L.B. はそれぞれ上界と下界を意味する。 0.75
To increase the diversity of a furthermore, we may use multiple rounds in the generation process with different β, α and R parameters. さらに多様性を高めるために, 生成過程において, β, α, Rパラメータの異なる複数のラウンドを用いることができる。 0.84
We use Fig 2 as an example to illustrate the probabilistic selection process. 確率的選択過程を説明する例として、Fig 2 を用いる。 0.74
Suppose input feature dimension D = 10 and R is selected as 5, we may apply α0 as 10 and α as 0.5 for bounding the dynamic range of the a(cid:48) d selections. 入力特徴次元 D = 10 と R を 5 とし、α0 を 10 とし、α0 を 0.5 とし、a(cid:48) d の選択の動的範囲を束縛する。 0.77
During the probabilistic selection, the R = 5 coefficients are selected with the candidate integers for the corresponding a(cid:48) d marked as black dots, the unselected D− R coefficients are marked as gray and the actual coefficients are set to zero. 確率的選択の間、r = 5 の係数は対応する a(cid:48) d の候補整数で選択され、選択されていない d−r の係数は灰色にマークされ、実際の係数は 0 に設定される。 0.74
The coefficients of the orientation vector a are uniformly selected among the candidate integers marked as black dots in Fig 2. 向きベクトルaの係数は、図2の黒点としてマークされた候補整数の中から一様に選択される。 0.72
3) Selection of Multiple Projection Vectors: Based on the search given in Sec. 3) 多重射影ベクトルの選択: sec で与えられた探索に基づく。 0.70
II-B2, we often find multiple effective projection vectors II-B2, 複数の有効射影ベクトルがしばしば見つかる 0.74
˜aj, j = 1,··· , J, ~aj, j = 1,··· , J, 0.83
(23) which yield discriminant 1D subspaces. (23) 1次元部分空間を識別する。 0.46
It is desired to leverage them as much as possible. 可能な限り活用することが望まれる。 0.42
However, many of them are highly correlated in the sense that their cosine similarity measure is close to unity, i.e., しかし、それらの多くは、コサイン類似度測度が一元に近く、すなわち、その意味で高い相関関係にある。 0.72
j ˜aj(cid:48) ≈ 1. j-aj (cid:48) = 1。 0.76
˜aT (24) はあ (24) 0.44
英語(論文から抽出)日本語訳スコア
world applications. In this section, we show how to apply the ensemble idea to one single SLM tree (i.e., SLM Baseline). 世界の応用。 本稿では,一つのSLMツリー(すなわちSLMベースライン)にアンサンブルのアイデアを適用する方法について述べる。 0.71
Inspired by RF, we present a bagging method for SLM and call it the SLM Forest. RFにインスパイアされたSLMのバッグング手法を提案し,これをSLMフォレストと呼ぶ。 0.61
Similarly, inspired by XGBoost [9], [10], we propose a boosting method and name it SLM Boost. 同様に、XGBoost [9], [10]にインスパイアされ、ブースティング法を提案し、SLM Boostと命名する。 0.80
They are detailed in Secs. 詳細はSecs.orgにある。 0.51
III-A and III-B, respectively. III-A,III-Bであった。 0.54
A. SLM Forest For traditional DTs, RF is the most popular bagging ensemble algorithm. A.SLM林 従来のDTでは、RFは最も人気のあるベージアンサンブルアルゴリズムである。 0.54
It consists of a set of tree predictors, where each tree is built based on the values of a random vector sampled independently and with the same distribution for all trees in the forest [6]. それぞれの木は、独立してサンプリングされたランダムなベクトルの値に基づいて構築され、森のすべての木に対して同じ分布を持つ木予測器で構成されています [6]。 0.79
With the Strong Law of Large Numbers, the performance of RF converges as the tree number increases. 大数の強い法則により、木数が増加するにつれてRFの性能は収束する。 0.70
As compared to the individual DTs, significant performance improvement is achieved with the combination of many weak decision trees. 個々のdtsと比較して、多くの弱い決定木の組み合わせにより、著しい性能改善が達成されている。 0.63
Motivated by RF, SLM Forest is developed by learning a series of single SLM tree models to enhance the predictive performance of each individual SLM tree. RFで動機づけたSLM Forestは、個々のSLMツリーの予測性能を高めるために、一連のSLMツリーモデルを学ぶことによって開発される。
訳抜け防止モード: RFによるモチベーション SLMフォレストの開発 個々のSLMツリーの予測性能を高めるために、一連のSLMツリーモデルを学習する。
0.67
As discussed in Sec. secで議論されたように。 0.36
II, SLM is a predictive model stronger than DT. II, SLMはDTよりも強い予測モデルである。 0.85
Besides, the probabilistic projection provides diversity between different SLM models. さらに、確率予測は異なるSLMモデル間の多様性を提供する。 0.71
Following RF, SLM Forest takes the majority vote of the individual SLM trees as the ensemble result for classification tasks, and it adopts the mean of each SLM tree prediction as the ensemble result for regression tasks. rfに続いて、slmフォレストは分類タスクのアンサンブル結果として個々のslmツリーの過半数の票を獲得し、回帰タスクのアンサンブル結果として各slmツリー予測の平均を採用する。 0.68
It is proved in [11] that the predictive performance of RF depends on two key points: RFの予測性能が2つのキーポイントに依存することが[11]で証明されている。
訳抜け防止モード: 11 で証明されている. RFの予測性能は2つの重要な点に依存する。
0.77
1) the strength of individual trees, and 1)個々の木の強さ、および 0.79
2) the weak dependence between them. 2) それら間の弱い依存度。 0.84
In other words, a high performance RF model can be obtained through the combination of strong and uncorrelated individual trees. 言い換えれば、強木と非相関木の組み合わせにより、高性能なRFモデルを得ることができる。 0.69
The model diversity of RF is achieved through bagging of the training data and feature randomness. RFのモデルの多様性は、トレーニングデータのバッジと特徴ランダム性によって達成される。 0.68
For the former, RF takes advantage of the sensitivity of DTs to the data they are trained on, and allows each individual tree to randomly sample from the dataset with replacement, resulting in different trees. 前者にとってRFは、トレーニングされたデータに対するDTの感度を利用して、各ツリーがデータセットからランダムにサンプルし、異なるツリーを生成する。 0.63
For the latter, each tree can select features only from a random subset of the whole input features space, which forces diversity among trees and ultimately results in lower correlation across trees for better performance. 後者の場合、各木は入力の全特徴空間のランダムなサブセットのみから特徴を選択でき、それによって木間の多様性が強まり、最終的に木間の相関が低下してパフォーマンスが向上する。
訳抜け防止モード: 後者の場合、各木は入力特徴空間全体のランダムな部分集合からのみ特徴を選択できる。 木々間の多様性を強制し 結果として木々間の相関が低くなり 性能が向上します
0.78
SLM Forest achieves diversity of SLM trees more effectively through probabilistic selection as discussed in Sec. SLMフォレストは、Secで議論された確率的選択により、SLM木の多様性をより効果的に達成する。 0.51
II-B2. For partitioning at a node, we allow a probabilistic selection of D0 dimensions from the D input feature dimensions by taking the discriminant ability of each feature into account. II-B2。 ノードの分割については、各特徴の判別能力を考慮して、d入力特徴量からd0次元の確率的選択を可能にする。 0.64
In Eq (19), β is a hyper-parameter used to control the probability distribution among input features. Eq (19) では、β は入力特徴間の確率分布を制御するために用いられる超パラメータである。 0.78
A larger β value has higher preference on more discriminant features. β値が大きいほど、より差別的な特徴が優先される。 0.72
Furthermore, the envelope vector, Ad in Eq (21) gives a bound to each element of the orientation vector. さらに、eq (21) のエンベロープベクトル ad は、向きベクトルの各要素に束縛を与える。 0.66
It also attributes to the diversity of SLM trees since the search space of projection vectors are determined by hyper-parameter α. また、射影ベクトルの探索空間は超パラメータαによって決定されるため、SLM木の多様性にも寄与する。 0.65
Being similar to the replacement idea in RF, all training samples and all feature dimensions are kept as the input at each node splitting to increase the strength of individual SLM trees. RFの置換アイデアと似ているため、各ノードの入力として全てのトレーニングサンプルと全ての特徴次元が保持され、個々のSLM木の強度が増大する。 0.76
With individual SLM trees stronger than individual DTs and novel design in decorrelating partitioning planes, SLM Forest 個別のslm木が個別のdtsよりも強く, 分割平面, slm林に新たな設計を施す 0.70
Ψ(t) ≈ L(cid:88) ~(t) ~ L(cid:88) 0.82
l=1 5 achieves better performance and faster converge than RF. l=1 5 RFよりも優れた性能と高速な収束を実現する。 0.46
This claim is supported by experimental results in Sec. この主張はSecの実験結果によって支持される。 0.58
IV. B. SLM Boost IV。 B. SLM ブースト 0.59
With standard DTs as weak learners, GBDT [7] and XGBoost [9], [10] can deal with a large amount of data efficiently and achieve the state-of-the-art performance in many machine learning problems. 標準DTを弱い学習者として使うと、GBDT [7] と XGBoost [9] は大量のデータを効率的に処理し、多くの機械学習問題において最先端のパフォーマンスを達成することができる。 0.77
They take the ensemble of standard DTs with boosting, i.e. by defining an objective function and optimizing it with learning a sequence of DTs. 目的関数を定義し、DTのシーケンスを学習することでそれを最適化することで、標準DTのアンサンブルを強化する。 0.73
By following the gradient boosting process, we propose SLM Boost to ensemble a sequence of SLM trees. 勾配増進プロセスに従うことにより,SLM木列をアンサンブルするSLM Boostを提案する。 0.65
Mathematically, we aim at learning a sequence of SLM trees, where the tth tree is denoted by ft(x). 数学的には、t 木が ft(x) で表される SLM 木の列を学習することを目的としている。 0.66
Suppose that we have T trees at the end. 最後に t の木があると仮定する。 0.63
Then, the prediction of the ensemble is the sum of all trees, i.e. each of the L samples is predicted as すると、アンサンブルの予測はすべての木の総和、すなわち各Lサンプルが予測される。
訳抜け防止モード: そして、アンサンブルの予測はすべての木の総和である。 すなわち、Lサンプルのそれぞれが予測される。
0.70
ˆyl = ft(xl) ジール= ft(xl) 0.42
l = 1, 2,··· , L. l = 1, 2,···· , l である。 0.82
(25) The objective function for the first t trees is defined as (25) 最初の t 木の目的関数は、次のように定義される。 0.52
T(cid:88) t=1 T(第88回) t=1 である。 0.45
L(cid:88) Ω = l(cid:88) Ω = 0.40
γ(yl, ˆy(t) γ(yl, ]y(t) である。 0.70
l ), (26) l)であった。 (26) 0.38
l=1 where ˆy(t) is the prediction of sample l with all t trees and l γ(yl, ˆy(t) l ) denotes the training loss for the model with a sequence of t trees. l=1 ここで y(t) はすべての t 木を持つ標本 l の予測であり、l γ(yl, y(t) l ) は t 木の列を持つモデルの訓練損失を表す。 0.51
The log loss and the mean squared error are commonly utilized for classification and regression tasks as the training loss, respectively. ログ損失と平均二乗誤差はそれぞれ、トレーニング損失として分類タスクと回帰タスクに使用される。 0.72
It is intractable to learn all trees at once. 一度にすべての木を学ぶのは難しかった。 0.60
To design SLM Boost, we follow the GBDT process and use the additive strategy. SLM Boostを設計するために、GBDTプロセスに従い、加算戦略を使用する。 0.72
That is, by fixing what have been learned with all previous trees, SLM Boost learns a new tree at each time. つまり、以前のすべての木で学んだことを修正することで、slm boostは毎回新しい木を学習する。 0.74
Without loss of generality, we initialize the model prediction as 0. 一般性を失うことなく、モデル予測を 0 と初期化する。 0.73
Then, the learning process is そして、学習プロセスは、 0.70
ˆy(0) l ˆy(1) l l(0)l(0)l(y(1)l) である。 0.51
= 0 = f1(xl) = ˆy(0) ··· = 0 = f1(xl) = y(0) ···· 0.45
l + f1(xl) l + f1(xl) 0.49
ˆy(t) l l (複数形 ls) 0.75
= fi(xl) = ˆy(t−1) = fi(xl) = y(t−1) 0.45
l + ft(xl) うーん + ft(xl) 0.44
t(cid:88) i=1 t(cid:88) i=1 である。 0.36
(27) (28) (29) (27) (28) (29) 0.42
(30) Then, the objective function to learn the tth tree can be written as (30) そして、t木を学ぶための目的関数を次のように書ける。 0.57
Ψ(t) = γ(yl, ˆy(t−1) シュ(t) = γ(yl, ]y(t−1) である。 0.61
l + ft(xl)). うーん + ft(xl)。 0.41
(31) L(cid:88) (31) l(cid:88) 0.40
l=1 Furthermore, we follow the XGBoost process and take the Taylor Expansion of the loss function up to the second order to approximate the loss function in general cases. l=1 さらに、XGBoostプロセスに従い、損失関数のテイラー展開を2階まで引き上げ、一般の場合の損失関数を近似する。 0.44
Then, the objective function can be approximated as そして、目的関数を近似することができる。 0.80
(γ(yl, ˆy(t−1) (γ(yl,...y(t−1)) 0.42
l ) + glft(xl) + うーん ) + glft(xl) + 0.44
1 2 hlf 2 t (xl)) + C, (32) 1 2 ハルフ2 t (xl)) + C, (32) 0.48
英語(論文から抽出)日本語訳スコア
where gl and hl are defined as gl = ∂ˆy(t−1) hl = ∂2 gl と hl は gl = もありません(t−1) hl = ∂2 0.49
ˆy(t−1) y(t−1) である。 0.44
l l γ(yl, ˆy(t−1) γ(yl, ˆy(t−1) うーん うーん γ(yl, sy(t−1) γ(yl, sy(t−1) 0.46
l l ) ) うーん うーん ) ) 0.44
(33) (34) After removing all constants, the objective function for the tth SLM tree becomes (33) (34) すべての定数を除去した後、第t次SLMツリーの目的関数となる 0.50
[glft(xl) + [glft(xl) + 0.42
1 2 hlf 2 t (xl)] 1 2 ハルフ2 t (xl)] 0.46
(35) L(cid:88) (35) l(cid:88) 0.40
l=1 With individual SLM trees stronger than individual DTs, SLM Boost achieves better performance and faster convergence than XGBoost as illustrated by experimental results in Sec. l=1 SLM Boostは個々のDTよりも強い個々のSLM木により、実験結果がSecで示すように、XGBoostよりも優れたパフォーマンスと高速な収束を実現している。 0.44
IV. IV. PERFORMANCE EVALUTION OF SLM IV。 IV。 slmの性能評価 0.41
Datasets. To evaluate the performance of SLM, we conduct データセット。 SLMの性能を評価するために,我々は行動する 0.69
experiments on the following nine datasets. 以下の9つのデータセットの実験です 0.70
1) Circle-and-Ring. It contains an inner circle as one class and an outer ring as the other class as shown in Fig 4(a) [12]. 1)円環。 図4(a)[12]に示すように、内円を1つのクラスとして、外環をもう1つのクラスとして含む。 0.70
2) 2-New-Moons. 2)2-ニュームーン。 0.58
It contains two interleaving new moons as shown in Fig 4(b) [12]. 図4(b)[12]に示すように、2つの間欠的な新月を含んでいる。 0.64
Each new moon corresponds to one class. それぞれの新月は1つのクラスに対応する。 0.61
3) 4-New-Moons. It contains four interleaving new moons as shown in Fig 4(c) [12], where each moon is a class. 3)新月4回。 図4(c)[12]に示すように、それぞれの月がクラスである4つの間欠的な新月を含んでいる。 0.66
4) Iris Dataset. 4) irisデータセット。 0.84
The Iris plants dataset [12], [13] has 3 Iris の植物データセット [12], [13] は 3 である 0.92
classes, 4D features and 150 samples. クラス、4D機能、150のサンプル。 0.79
5) Wine Dataset. 5) ワインデータセット。 0.88
The Wine recognition dataset [12], [14] ワイン認識データセット[12],[14] 0.67
has 3 classes, 13D features, and 178 samples. 3つのクラス、13D機能、178のサンプルがある。 0.70
6) B.C.W. Dataset. 6)B.C.W.データセット 0.66
The breast cancer Wisconsin (B.C.W.) dataset [12], [14] has 2 classes, 30D features and 569 samples. 乳がん(B.C.W.)データセット[12]、[14]には2つのクラス、30D特徴、569のサンプルがある。 0.71
7) Diabetes Dataset. 7)糖尿病データセット 0.84
The Pima Indians diabetes dataset [15] is for diabetes prediction. pima indians diabetes dataset [15]は、糖尿病の予測のためのデータセットである。 0.65
It has 2 classes, 8D features and 768 samples. 2つのクラス、8D機能、768のサンプルがある。 0.67
By following [4], we removed samples with the physically impossible zero value for glucose, diastolic blood pressure, triceps skin fold thickness, insulin, or BMI and used the remaining 392 samples for consistent experimental settings. 4] に従えば, 血糖, 拡張期血圧, トリペス皮膚の折りたたみ厚さ, インスリン, BMIの物理的に不可能なゼロ値の試料を除去し, 残りの392試料を一貫した実験条件に使用した。 0.80
8) Ionosphere Dataset. 8) イオン圏データセット。 0.63
The Ionosphere binary classification dataset [16], [14] is used to predict whether the radar return is good or bad. レーダリターンが良いか悪いかを予測するために、Ionosphereバイナリ分類データセット [16], [14] が使用される。
訳抜け防止モード: Ionosphereバイナリ分類データセット [16 ], [14 ] が使用される レーダーの帰還が良いのか悪いのかを 予測するためです
0.86
It has 2 classes, 34D features and 351 instances. 2つのクラス、34D機能、351インスタンスがある。 0.73
For consistency with [4], we remove the feature dimension that has the zero variance from the data. 4] との一貫性のために、データからゼロのばらつきを持つ特徴次元を取り除きます。 0.69
9) Banknote Dataset. 9) 紙幣データセット。 0.77
The banknote authentication dataset [14] classifies whether a banknote is genuine or forged based on the features extracted from the wavelet transform of banknote images. 紙幣認証データセット[14]は、紙幣画像のウェーブレット変換から抽出された特徴に基づいて紙幣が本物か否かを分類する。 0.77
It has 2 classes, 4D features and 1372 samples. 2つのクラス、4Dフィーチャと1372のサンプルがある。 0.62
The feature dimension of the first three datasets is two while that of the last six datasets is higher than two. 最初の3つのデータセットの特徴次元は2であり、最後の6つのデータセットの特徴次元は2より大きい。 0.71
The first three are synthetic ones, where 500 samples per class are generated with 30% noisy samples in the decision boundary for 2New-Moons and 20% noisy samples in the decision boundary of Circle-and-Ring and 4-New-Moons. 最初の3つは、クラスごとに500個のサンプルが生成され、2New-Moonsと20%のノイズサンプルがCircle-and-Ringと4New-Moonsの判定境界にある。 0.73
The last six are realworld datasets. 最後の6つは現実世界のデータセットです。 0.59
Samples in all datasets are randomly split into training and test sets with 60% and 40%, respectively. すべてのデータセットのサンプルは、それぞれ60%と40%のトレーニングとテストセットにランダムに分割される。 0.79
6 Benchmarking Classifiers and Their Implementations. 6 ベンチマーク分類器とその実装。 0.54
We compare the performance of 10 classifiers in Table I. テーブルiにおける10の分類器の性能を比較する。 0.75
They include seven traditional classifiers and three proposed SLM variants. 7つの伝統的な分類器と3つのSLM変種が提案されている。 0.48
The seven classifiers are: 7つの分類は以下のとおりである。 0.46
1) MLP designed in a feedforward manner (denoted by FF-MLP) [4], 1)フィードフォワード方式で設計したMLP(FF-MLPによる記述) [4] 0.86
2) MLP trained by backpropagation (denoted by BP-MLP), 2)バックプロパゲーション(BP-MLP)により訓練されたMDP 0.70
3) linear SVM (LSVM), 3) 線形SVM(LSVM)。 0.37
4) SVM with thee radial basis function (SVM/RBF) kernel, and 4) Thee radial basis function (SVM/RBF) カーネルとSVM 0.81
5) Decision Tree (DT) 6) Random Forest (RF) and 5)決定木(DT) 6)ランダムフォレスト(RF)と 0.74
7) XGBoost. 7) XGBoost。 0.81
The three SLM variants are: SLMの3つの変種は以下のとおりである。 0.49
1) SLM Baseline using only one SLM tree, 1)1つのslm木のみを用いたslmベースライン 0.73
2) SLM Forest, and 2)slm森林,および 0.73
3) SLM Boost. 3)SLMブースト。 0.53
For the two MLP models, the network architectures of FFMLP and BP-MLP and their performance results are taken from [4]. 2つのMLPモデルに対して、FFMLPとBP-MLPのネットワークアーキテクチャとその性能を[4]から取り出す。
訳抜け防止モード: 2つのMLPモデルの場合、FFMLPとBP-MLPのネットワークアーキテクチャ パフォーマンスの結果は [ 4 ] から取り出されます
0.85
FF-MLP has a four-layer network architecture; namely, one input layer, two hidden layers and one output layer. FF-MLPは4層ネットワークアーキテクチャ、すなわち入力層が1つ、隠蔽層が2つ、出力層が1つである。 0.72
The neuron numbers of its input and output layers are equal to the feature dimension and the class number, respectively. 入力層と出力層のニューロン数は、それぞれ特徴次元とクラス番号に等しい。 0.60
The neuron numbers at each hidden layer are hyper-parameters determined adaptively by a dataset. 各隠れ層のニューロン番号はデータセットによって適応的に決定されるハイパーパラメータである。 0.63
BPMLP has the same architecture as FF-MLP against the same dataset. BPMLPは同じデータセットに対してFF-MLPと同じアーキテクチャを持つ。 0.77
Its model parameters are initialized by those of FFMLP and trained for 50 epochs. モデルパラメータはFFMLPで初期化され、50エポックで訓練される。 0.71
For the two SVM models, we conduct grid search for hyper-parameter C in LSVM and hyper-parameters C and γ in SVM/RBF for each of the nine datasets to yield the optimal performance. 2つのSVMモデルに対して,SVM における超パラメータ C と SVM/RBF における超パラメータ C と γ の格子探索を行い,最適性能を得る。 0.81
For the DT model, the weighted entropy is used as the loss function in node splitting. DTモデルでは、重み付きエントロピーがノード分割における損失関数として使用される。 0.78
We do not set the maximum depth limit of a tree, the minimum sample number and the minimum loss decrease required as the stopping criteria. 停止条件として,樹木の最大深さ限界,最小サンプル数,最小損失減少を定めていない。
訳抜け防止モード: 私たちは木の最大深さ制限を設定しません。 停止基準として必要となる最小サンプル数と最小損失の減少。
0.83
Instead, we allow the DT for each dataset to split until the purest nodes are reached in the training. 代わりに、トレーニングで最も純粋なノードに到達するまで、各データセットのDTを分割できるようにします。 0.69
For the ensemble of DT models (i.e., RF and XGBoost), we conduct grid search for the optimal tree depth and the learning rate of XGBoost to ensure that they reach the optimal performance for each dataset. DTモデルのアンサンブル(RFとXGBoost)に対して、最適な木深度とXGBoostの学習率のグリッド探索を行い、各データセットの最適性能に到達することを保証する。 0.73
The number of trees is set to 100 to ensure convergence. 木の数は収束を保証するために100に設定される。 0.70
The hyper-parameters of SLM Baseline (i.e., with one SLM tree) include D0, p, Aint, α, β and the minimum number of samples used in the stopping criterion. slmベースライン(すなわち1つのslmツリー)のハイパーパラメータは、d0, p, aint, α, β、および停止基準で使用される最小サンプル数である。
訳抜け防止モード: SLMベースラインのハイパーパラメータ(つまり、1つのSLMツリーを持つ)は、D0, p, Ai nt, α, βおよび停止基準で使用されるサンプルの最小数。
0.80
They are searched to achieve the performance as shown in I. 彼らはiに示すように、パフォーマンスを達成するために検索されます。 0.58
The number of trees in SLM Forest is set to 20 due to the faster convergence of stronger individual SLM trees. SLMフォレストにおける樹木の数は、より強い個々のSLM木がより早く収束するため、20に設定されている。 0.65
The number of trees in SLM Boost is the same as that of XGBoost for fair comparison of learning curves. SLM Boostの木の数は、学習曲線の公正な比較のためにXGBoostと同じである。 0.80
Comparison of Classification Performance. The classification accuracy results of 10 classifiers are shown in Table I. 分類性能の比較。 10個の分類器の分類精度を表Iに示す。 0.72
We divide the 10 classifiers into two groups. 10の分類を2つのグループに分けます。 0.71
The first group includes 6 basic methods: FF-MLP, BP-MLP, LSVM, SVM/RBF, DT and SLM Baseline. 最初のグループには、FF-MLP、BP-MLP、LSVM、SVM/RBF、DT、SLM Baselineの6つの基本的なメソッドが含まれている。
訳抜け防止モード: 最初のグループは、FF - MLP, BP - MLP, LSVM, SVM / RBF, DT そしてSLMベースライン。
0.69
The second group includes 4 ensemble methods: RF, XGBoost, SLM Forest and SLM Boost. 第2グループには、RF、XGBoost、SLM Forest、SLM Boostの4つのアンサンブル方法が含まれている。 0.56
The best results for each group are shown in bold. 各グループの最高の結果は大胆に示されます。 0.82
For the first group, SLM Baseline and SVM/RBF often outperform FF-MLP, BP-MLP, LSVM and DT and give the best results. 最初のグループでは、SLM BaselineとSVM/RBFがFF-MLP、BP-MLP、LSVM、DTを上回り、最高の結果を与える。 0.63
For the three synthetic 2D datasets (i.e. circle-and-ring, 2new-moons and 4-new-moons), the gain of SLM over MLP is relatively small due to noisy samples. 3つの合成2dデータセット(サークル・アンド・リング、2ニュームーン、4ニュームーン)では、mlp上でのslmの利得は比較的小さい。 0.66
The difference in sample distributions of training and test data plays a role in the performance upper bound. トレーニングデータとテストデータのサンプル分布の違いは、パフォーマンス上界において重要な役割を果たします。 0.80
To demonstrate this point, we show sample distributions of their training and testing data in Fig 4. この点を示すために,そのトレーニングおよびテストデータのサンプル分布を図4に示す。 0.79
For the datasets with high dimensional input features, the SLM methods achieve better performance over the classical 高次元の入力特徴を持つデータセットに対して、slm法は古典よりも優れた性能を達成する 0.72
英語(論文から抽出)日本語訳スコア
CLASSIFICATION ACCURACY COMPARISON OF 10 BENCHMARKING METHODS ON NINE DATASETS. 9つのデータに対する10ベンチャマーキング法の分類精度比較 0.51
TABLE I Datasets FF-MLP BP-MLP LSVM SVM/RBF DT SLM Baseline RF XGBoost SLM Forest SLM Boost テーブルI Datasets FF-MLP BP-MLP LSVM SVM/RBF DT SLM Baseline RF XGBoost SLM Forest SLM Boost 0.45
circle-andring 87.25 88.00 48.50 88.25 85.00 88.25 87.00 87.50 88.25 88.25 circle-andring 87.25 88.00 48.50 88.25 85.00 88.25 87.00 87.50 88.25 88.25 0.21
2-newmoons 91.25 91.25 85.25 89.75 87.25 91.50 90.50 91.25 91.50 91.50 2-newmoons 91.25 91.25 85.25 89.75 87.25 91.50 90.50 91.25 91.50 91.50 0.21
4-newmoons 95.38 87.00 85.00 88.38 94.63 95.63 96.00 96.00 96.00 96.00 4-newmoons 95.38 87.00 85.00 88.38 94.63 95.63 96.00 96.00 96.00 96.00 0.21
Iris 98.33 64.67 96.67 98.33 98.33 98.33 98.33 98.33 98.33 98.33 アイリス 98.33 64.67 96.67 98.33 98.33 98.33 98.33 98.33 98.33 98.33 0.40
Wine 94.44 79.72 98.61 98.61 95.83 98.61 100.00 100.00 100.00 100.00 ワイン 94.44 79.72 98.61 98.61 95.83 98.61 100.00 100.00 100.00 100.00 0.49
B.C.W. 94.30 97.02 96.49 97.36 94.74 97.23 95.61 98.25 97.36 98.83 B.C.W. 94.30 97.02 96.49 97.36 94.74 97.23 95.61 98.25 97.36 98.83 0.23
Pima 73.89 75.54 76.43 75.15 77.07 77.71 79.00 75.80 79.00 77.71 ピマ 73.89 75.54 76.43 75.15 77.07 77.71 79.00 75.80 79.00 77.71 0.38
Ionosphere Banknote 89.36 84.11 86.52 93.62 89.36 90.07 94.33 91.49 95.71 94.33 電離圏 紙幣 89.36 84.11 86.52 93.62 89.36 90.07 94.33 91.49 95.71 94.33 0.41
98.18 88.38 99.09 100.00 98.00 99.09 98.91 99.82 100.00 100.00 98.18 88.38 99.09 100.00 98.00 99.09 98.91 99.82 100.00 100.00 0.21
7 Fig. 4. Visualization of 2D feature datasets: 7 図4。 2次元特徴データセットの可視化 0.59
(a) Circle & Ring (b) 2-new-moon, (a)円環 (b)新月2日 0.31
(c) 4-new-moon. One ground truth sample of the training data, the ground truth of the test data and the SLM predicted results are shown in the first, second and third rows, respectively. (c)新月4日 訓練データの1つの基底真理サンプル、試験データの基底真理、およびslm予測結果が、それぞれ第1行、第2行、第3行に示される。 0.50
methods with bigger margins. マージンが大きいメソッド。 0.55
The ensemble methods in the second group have better performance than the basic methods in the first group. 第2群のアンサンブル法は第1群の基本的な方法よりも優れた性能を有する。 0.80
The ensembles of SLM are generally more powerful than those of DT. SLMのアンサンブルは一般的にDTのアンサンブルよりも強力である。 0.64
They give the best performance among all benchmarking methods. すべてのベンチマークメソッドの中で最高のパフォーマンスを提供する。 0.59
Comparison of Model Sizes. モデルサイズの比較。 0.72
The model size is defined by the number of model parameters. モデルサイズはモデルパラメータの数によって定義される。 0.91
The model sizes of FF/BPMLP, LSVM, SVM/RBF, DT and SLM Baseline are compared in Table II. 表IIでは,FF/BPMLP,LSVM,SVM/R BF,DT,SLMベースラインのモデルサイズを比較した。 0.70
Since FF-MLP and BP-MLP share the same architecture, their model sizes are the same. FF-MLPとBP-MLPは同じアーキテクチャであるため、モデルサイズは同じである。 0.76
It is calculated by summing up the weight and bias numbers of all neurons. 全ニューロンの重みとバイアス数を合計して計算する。 0.60
The model parameters of LSVM and SVM/RBF can be LSVM と SVM/RBF のモデルパラメータは 0.77
computed as SVM Parameter # = L + 1 + (D + 2)NSV , 計算 SVMパラメータ # = L + 1 + (D + 2)NSV , 0.51
(36) where L, D and NSV denote the number of training samples, (36) L、D、NSVは、トレーニングサンプルの数を表す。 0.56
the feature dimension and the number of support vectors, respectively. 特徴次元とサポートベクトルの数はそれぞれである。 0.72
The first term in Eq (36) is the slack variable for each training sample. eq (36) の最初の用語は、各トレーニングサンプルのslack変数である。 0.82
The second term denotes the bias. 第二項は偏見を表す。 0.66
The last term comes from the fact that each support vector has D feature dimensions, one Lagrange dual coefficient, and one class label. 最後の項は、各サポートベクトルが D 個の特徴次元、1つのラグランジュ双対係数、1つのクラスラベルを持つという事実に由来する。 0.69
The model sizes of DTs depend on the number of splits learned during the training process, and there are two parameters learned during each split for feature selection and split value respectively, the sizes of DTs are calculated as two times of the number of splits. DTのモデルサイズは、トレーニングプロセス中に学習した分割数に依存し、各分割中にそれぞれ特徴選択と分割値について学習した2つのパラメータがあり、DTのサイズは分割数の2倍として計算される。 0.88
The size of an SLM baseline model depends on the number of partitioning hyper-planes which are determined by the training stage. slmのベースラインモデルのサイズは、訓練段階によって決定される分割超平面の数に依存する。 0.76
For given hyper-parameter D0, each partitioning hyper-plane involves one weight matrix and a selected splitting threshold, with qi decorrelated partitioning learned 与えられた超パラメータd0に対して、各分割超平面は1つの重み行列と選択された分割しきい値を含む。 0.59
英語(論文から抽出)日本語訳スコア
MODEL SIZE COMPARISON OF FIVE MACHINE LEARNING MODELS MODELS AGAINST 9 DATASETS, WHERE THE SMALLEST MODEL SIZE FOR EACH 9つのデータを用いた5機械学習モデルのモデルサイズ比較 : 最小モデルサイズを用いて 0.60
TABLE II DATASET IS HIGHLIGHTED IN BOLD. テーブルII データセットは金型で高輝度です。 0.40
Datasets Circle-and-Ring 2-new-moons 4-new-moons Iris Wine B.C.W. Pima Ionosphere Banknode 2-ニュームーン4-ニュームーンアイリスワインb.c.w. pima ionosphere banknodeのデータセット 0.47
FF/BP-MLP 125 114 702 47 147 74 FF/BP-MLP 125 114 702 47 147 74 0.31
2,012 278 22 2,012 278 22 0.39
LSVM SVM/RBF 2,965 1,453 2,853 235 453 1,462 1,532 1,017 1,160 LSVM SVM/RBF 2,965 1,453 2,853 235 453 1,462 1,532 1,017 1,160 0.25
1,425 1,305 2,869 343 963 3,254 1,802 2,207 1,322 1,425 1,305 2,869 343 963 3,254 1,802 2,207 1,322 0.25
DT 350 286 298 34 26 54 130 50 78 DT 350 286 298 34 26 54 130 50 78 0.43
SLM Baseline 39 42 93 20 99 126 55 78 40 SLMベースライン 39 42 93 20 99 126 55 78 40 0.60
DT depth 14 15 11 6 4 7 8 10 7 DT深度 14 15 11 6 4 7 8 10 7 0.41
SLM tree depth 4 4 5 3 2 4 3 2 3 SLM木深度 4 4 5 3 2 4 3 2 3 0.58
8 for partitioning each parent node. 8 それぞれの親ノードを分割します 0.59
Then, the model size of the corresponding SLM can be calculated as そして、対応するslmのモデルサイズを計算できる。 0.59
M(cid:88) SLM Parameter # = M(第88回) SLMパラメータ# = 0.69
qi(D0 + 1), qi(d0 + 1)) 0.43
(37) i=1 (37) i=1 である。 0.37
where M is the number of partitioning hyperplanes. ここで m は分割超平面の数です 0.68
Details on the model and computation of each method against each dataset are given in the appendix. 各データセットに対する各メソッドのモデルと計算の詳細は付録に記載されている。 0.85
It is worthwhile to comment on the tradeoff between the classification performance and the model size. 分類性能とモデルサイズの間のトレードオフについてコメントする価値がある。 0.73
For SVM, since its training involves learning the dual coefficients and slack variables for each training sample and memorization of support vectors, the model size is increasing linearly with the number of training samples and the number of support vectors. SVMの場合、トレーニングの各トレーニングサンプルの2つの係数とスラック変数を学習し、サポートベクトルを記憶するので、モデルのサイズはトレーニングサンプルの数とサポートベクトルの数とともに線形に増加している。 0.82
When achieving similar classification accuracy, the SVM model is heavier for more training samples. 類似の分類精度を達成する場合、SVMモデルはより多くのトレーニングサンプルに対して重くなります。 0.72
For MLPs, with high-dimension classification tasks, SLM methods outperforms the MLP models in all benchmarking datasets. 高次元の分類タスクを持つMLPでは、SLM法は全てのベンチマークデータセットにおいてMPPモデルよりも優れている。 0.57
For the datasets with saturated performance such as Iris, Banknote, and Ionosphere, SLM achievs better or comparable performance with less than half of the parameters of MLP. iris、banknote、ionosphereといった飽和性能のデータセットの場合、slm achievsはmlpのパラメータの半分以下でパフォーマンスが良くなり、同等になる。 0.65
As compared to DTs, the SLM models tend to achieve wider and shallower trees, as shown in Table II. DTと比較すると、表IIに示すように、SLMモデルはより広く、より浅い木が得られる傾向にある。 0.64
The depth of SLM trees are overall smaller than the DT models, while the number of splittings can be comparable for the small datasets, like Wine. SLMツリーの深さはDTモデルよりも全体的に小さく、分割の数はWineのような小さなデータセットに匹敵する。 0.69
The SLM trees tend to make more splits at reach pure leaf nodes at shallower depth. slm木は、より浅い深さで純粋な葉ノードに達するとより分裂する傾向がある。
訳抜け防止モード: SLMツリーは傾向があります より浅い深さで 純粋な葉のノードに到達できるように
0.67
With outperforming the DTs in all the datasets, the SLM model sizes are generally smaller than the DTs as well with benefiting from the subspace partitioning process. すべてのデータセットでDTを上回り、SLMモデルのサイズは一般的にDTよりも小さく、サブスペースパーティショニングプロセスの恩恵を受けます。 0.62
Convergence Performance Comparison of DT Ensembles and SLM Ensembles. DTアンサンブルとSLMアンサンブルの収束性能比較 0.52
We compare the convergence performance of the ensemble and the boosting methods of DT and SLM for Wine, B.C.W. and Pima three datas in Figs. ワイン,b.c.w.,pimaの3つのデータについて,アンサンブルの収束性能とdtおよびslmの促進法を比較した。
訳抜け防止モード: 我々はアンサンブルの収束性能とDTの促進方法の比較を行った。 SLM for Wine, B.C.W. and Pima three datas in Figs
0.83
5(a)-(c). 5(a)-(c)である。 0.71
For RF and SLM Forest, which are ensembles of DT and SLM, respectively, we set their maximum tree depth and learning rate to the same. DTとSLMのアンサンブルであるRFとSLMフォレストでは,最大木深度と学習速度を同じに設定した。 0.57
We show their accuracy curves as a function of the tree number in the left subfigure. 左サブフィギュアにおける木数関数としてそれらの精度曲線を示す。 0.74
We see that SLM Forest converges faster than RF. SLMフォレストはRFよりも早く収束する。 0.59
For XGBoost and SLM Boost, which are boosting methods of DT and SLM, respectively, we show the logloss value as a function of the tree number in the right subfigure. dt と slm のブースティング手法である xgboost と slm boost については、右部分図のツリー番号の関数として logloss 値を示す。 0.58
Again, we see that SLM Boost converges faster than XGBoost. 繰り返しますが、SLM BoostはXGBoostよりも早く収束します。 0.74
Fig. 5. Comparison of SLM and DT ensembles for three datasets 図5。 3つのデータセットに対するSLMとDTアンサンブルの比較 0.67
(a) Wine, (b) B.C.W., and (a)ワイン。 (b)B.C.W.及び 0.68
(c) Pima. Each left subfigure compares the accuracy curves of SLM Forest and RF as a function of the tree number. (c)ピマ。 各左サブフィギュアはSLMフォレストとRFの精度曲線を木数関数として比較する。 0.51
Each right subfigure compares the logloss curves of SLM Boost and XGBoost as a function of the tree number. 各右部分図は木数関数としてSLM BoostとXGBoostのログロス曲線を比較する。 0.68
V. SUBSPACE LEARNING REGRESSOR (SLR) V.サブスペース学習レグレッシャ(SLR) 0.69
A. Method A different loss function can be adopted in the subspace partitioning process for a different task. A.方法 異なるタスクのサブスペース分割プロセスで異なる損失関数を適用できる。 0.70
For example, to solve a regression problem, we can follow the same methodology as described in Sec. 例えば、回帰問題を解決するために、secで説明されているのと同じ方法に従うことができる。 0.59
II but adopt the mean-squrared-error (MSE) as the loss function. II 平均赤外エラー(MSE)を損失関数として採用する。 0.67
The resulting method is called subspace learning regression, and the corresponding regressor is the subspace learning regressor (SLR). この手法はサブスペース学習回帰と呼ばれ、対応する回帰器はサブスペース学習回帰器(SLR)である。 0.71
Mathematically, each training sample has a pair of input x and output y, where x is a D-dimensional feature vector and y is a scalar that denotes the the regression target. 数学的には、各トレーニングサンプルは入力 x と出力 y のペアを持ち、x はd-次元特徴ベクトルであり、y は回帰対象を表すスカラーである。 0.79
Then, we build an SLR tree that partitions the D-dimensional feature そして、D次元特徴を分割するSLR木を構築する。 0.70
英語(論文から抽出)日本語訳スコア
COMPARISON OF REGRESSION PERFORMANCE OF EIGHT REGRESSORS ON SIX DATASETS. 第6 データに対する第8 次回帰器の回帰性能の比較 0.30
TABLE III 9 Make Friedman1 Make Friedman2 Make Friedman3 テーブルIII 9 Friedman2はFriedman3を作る 0.62
Datasets LSVR SVR/RBF DT SLR Baseline RF XGBoost SLR Forest SLR Boost lsvr svr/rbf dt slrベースラインrf xgboost forest slr boost 0.54
2.49 1.17 3.10 2.89 2.01 1.17 1.88 1.07 2.49 1.17 3.10 2.89 2.01 1.17 1.88 1.07 0.21
138.43 6.74 33.57 31.28 22.32 32.34 20.79 18.07 138.43 6.74 33.57 31.28 22.32 32.34 20.79 18.07 0.21
0.22 0.11 0.11 0.11 0.08 0.07 0.08 0.06 0.22 0.11 0.11 0.11 0.08 0.07 0.08 0.06 0.21
Boston 4.90 3.28 4.75 4.42 3.24 2.67 3.01 2.39 Boston 4.90 3.28 4.75 4.42 3.24 2.67 3.01 2.39 0.23
California housing カリフォルニアの住宅 0.75
0.76 0.58 0.74 0.69 0.52 0.48 0.48 0.45 0.76 0.58 0.74 0.69 0.52 0.48 0.48 0.45 0.21
Diabetes 53.78 53.71 76.56 56.05 54.34 53.99 52.52 51.27 糖尿病 53.78 53.71 76.56 56.05 54.34 53.99 52.52 51.27 0.27
space hierarchically into a set of leaf nodes. 階層的に葉ノードの集合に空間を分けます 0.74
Each of them corresponds to a subspace. それぞれが部分空間に対応する。 0.65
The mean of sample targets in a leaf node is set as the predicted regression value of these samples. 葉ノードにおけるサンプルターゲットの平均値をこれらのサンプルの予測回帰値として設定する。 0.84
The partition objective is to reduce the total MSE of sample targets as much as possible. 分割の目的は、サンプルターゲットの総MSEを可能な限り削減することである。 0.81
In the partitioning process, the total MSE of all leaf nodes decreases gradually and saturates at a certain level. 分割過程において、すべての葉ノードの総MSEは徐々に減少し、一定のレベルで飽和する。 0.76
The ensemble and boosting methods are applicable to SLR. アンサンブルとブーチング法はSLRに適用できる。 0.53
The SLR Forest consists of multiple SLR trees through ensembles. SLRフォレストは複数のSLRツリーで構成されている。 0.71
Its final prediction is the mean of predictions from SLR trees in the forest. 最後の予測は、森林のslr木からの予測の平均である。 0.70
To derive SLR Boost, we apply the GBDT process and train a series of additive SLR trees to achieve gradient boosting, leading to further performance improvement. SLR Boost を導出するために,GBDT プロセスを適用し,一連の付加的な SLR ツリーを訓練して勾配向上を実現し,さらなる性能向上を実現する。 0.78
As compared with a decision tree, an SLR tree is wider, shallower and more effective. 決定木と比較すると、SLR木はより広く、より浅く、より効果的である。 0.66
As a result, SLR Forest and SLR Boost are more powerful than their counter parts as demonstrated in the next subsection. その結果、slr forestとslr boostは、次のセクションで示されるように、そのカウンター部分よりも強力である。 0.59
B. Performance Evaluation To evaluate the performance of SLR, we compare the root mean squared error (RMSE) performance of eight regressors on six datasets in Table III. B.性能評価 SLRの性能を評価するために,表IIIの6つのデータセットに対して8つの回帰器の根平均二乗誤差(RMSE)性能を比較した。 0.76
The five benchmarking regressors are: linear SVR (LSVR), SVR with RBF kernel, DT, RF and XGBoost. 5つのベンチマークは、線形SVR(LSVR)、RBFカーネル付きSVR、DT、RF、XGBoostである。 0.71
There are three variants of SLR: SLR Baseline (with one SLR tree), SLR Forest and SLR Boost. SLRベースライン(SLR木1本)、SLRフォレスト(SLR Forest)、SLRブースト(SLR Boost)の3種類がある。
訳抜け防止モード: SLRには3つの変種がある: SLR Baseline (1つのSLR木を持つ) SLRフォレストとSLRブースト。
0.84
The first three datasets are synthesized datasets as described in [17]. 最初の3つのデータセットは[17]に記載されているように合成データセットである。 0.56
We generate 1000 samples for each of them. それぞれ1000個のサンプルを生成します。 0.82
The last three datasets are real world datasets. 最後の3つのデータセットは現実世界のデータセットです。 0.57
Samples in all six datasets are randomly split into 60% training samples and 40% test samples. 6つのデータセットのサンプルはランダムに60%のトレーニングサンプルと40%のテストサンプルに分割される。 0.77
1) Make Friedman 1. 1)フリードマン1を作ろう。 0.65
Its input vector, x, contains P (with P > 5) elements, which are independent and uniformly distributed on interval [0, 1]. 入力ベクトル x は p を含む(p > 5 の要素を含む)が独立であり、区間 [0, 1] 上で一様分布する。 0.82
Its output, y, is generated by the first five elements of the input. その出力yは入力の最初の5つの要素によって生成される。 0.90
The remaining (P−5) elements are irrelevant features and can be treated as noise. 残りの(P−5)元素は無関係な特徴であり、ノイズとして扱われる。 0.68
We refer to [17] for details. 詳細は[17]を参照する。 0.63
We choose P = 10 in the experiment. 実験では P = 10 を選択する。 0.83
2) Make Friedman 2-3. 2)フリードマン2-3を作る。 0.58
Their input vector, x, has 4 elements. 入力ベクトル x は4つの要素を持つ。 0.77
They are independent and uniformly distributed on interval [0, 1]. それらは独立して、[0, 1]間隔で一様分布する。 0.73
Their associated output, y, can be calculated by all four input elements via mathematical formulas as described in [17]. 関連した出力 y は、[17] に記述された数学的公式によって、4つの入力要素全てによって計算できる。 0.67
3) Boston. It contains 506 samples, each of which has a 13-D feature vector as the input. 3)ボストン。 506個のサンプルがあり、それぞれが入力として13-D特徴ベクトルを持つ。 0.73
An element of the feature vector is a real positive number. 特徴ベクトルの要素は実正数である。 0.62
Its output is a real number within interval [5, 50]. その出力は[5, 50]の範囲内の実数である。 0.84
4) California Housing. 4) カリフォルニアの住宅。 0.86
It contains 20640 samples, each of which has an 8-D feature vector. 20640個のサンプルがあり、それぞれが8次元の特徴ベクトルを持つ。 0.72
The regression target (or output) is a real number within interval [0.15, 5]. 回帰目標(または出力)は区間[0.15, 5]内の実数である。 0.77
5) Diabetes. 5) 糖尿病であった。 0.54
It contains 442 samples, each of which has a 10-D feature vector. サンプルは442個あり、それぞれ10次元の特徴ベクトルを持っている。 0.70
Its regression target is a real number within interval [25, 346]. その回帰目標は間隔[25, 346]内の実数である。 0.73
As shown in Table III, SLR Baseline outperforms DT in all datasets. Table IIIで示されているように、SLR BaselineはすべてのデータセットでDTを上回っている。 0.52
Also, SLR Forest and SLR Boosting outperform RF and XGBoost, respectively. また、SLRフォレストとSLRブースティングはそれぞれRFとXGBoostを上回っている。 0.64
For Make Friedman1, Make Friedman3, california-housing, Boston, and diabetes, SLR Boost achieves the best performance. Make Friedman1, Make Friedman3, Californiafornia-Hou sing, Boston, and diabetesにとって、SLR Boostは最高のパフォーマンスを実現している。
訳抜け防止モード: Make Friedman1, Make Friedman3, Californiafornia - House, Boston 糖尿病、SLR Boostは最高のパフォーマンスを達成する。
0.80
For Make Friedman2, SVR/RBF achieves the best performance benefiting from the RBF on its specific data distribution. Make Friedman2では、SVR/RBFは特定のデータ配信においてRBFから最高のパフォーマンスを得る。 0.66
However, it is worthwhile to emphasize that, to achieve the optimal performance, SVR/RBF needs to overfit to the training data by finetuning the soft margin with a large regularization parameter (i.e., C = 1000). しかし、最適性能を達成するためには、SVR/RBFは、ソフトマージンを大きな正規化パラメータ(例えばC = 1000)で微調整することで、トレーニングデータに過度に適合する必要があることを強調しておく価値がある。
訳抜け防止モード: しかし、それを強調する価値がある。 最適なパフォーマンスを達成するためです SVR / RBFはトレーニングデータに過度に適合する必要がある ソフトマージンを大きな正規化パラメータ(C = 1000)で微調整する。
0.74
This leads to much higher computational complexity. これにより計算の複雑さがさらに高まる。 0.72
With stronger individual SLR trees and effective uncorrelated models, the ensemble of SLR can achieve better performance than DTs with efficiency. より強い個々のSLR木と効果的な非相関モデルにより、SLRのアンサンブルは効率良くDTよりも優れた性能が得られる。 0.66
VI. COMMENTS ON RELATED WORK VI。 関連作業の概要 0.66
In this section, related prior work is reviewed and the relation between various classifers/regressor s and SLM/SLR are commented. 本項では、関連する先行研究をレビューし、各種クラスファ/回帰器とSLM/SLRの関係について述べる。 0.59
A. Classification and Regression Tree (CART) A.分類と回帰木(CART) 0.83
DT has been well studied for decades, and is broadly applied for general classification and regression problems. DTは数十年にわたってよく研究され、一般的な分類や回帰問題に広く応用されている。 0.67
Classical decision tree algorithms, e g ID3 [18] and CART [2], are devised to learn a sequence of binary decisions. 古典的な決定木アルゴリズムであるeg ID3[18]とCART [2]は、一連の二項決定を学習するために考案されている。
訳抜け防止モード: 古典的決定木アルゴリズム eg ID3 [18 ] そして CART [2 ] はバイナリ決定のシーケンスを学ぶために考案されています。
0.83
One tree is typically a weak classifier, and multiple trees are built to achieve higher performance in practice such as bootstrap aggregation [6] and boosting methods [19]. 1つの木は典型的には弱い分類器であり、ブートストラップアグリゲーション [6] やブースティングメソッド [19] など、実際に高いパフォーマンスを達成するために複数の木が構築されます。 0.63
DT and its ensembles work well most of the time. DTとそのアンサンブルは、ほとんどの場合うまく機能します。 0.69
Yet, they may fail due to poor training and test data splitting and training data overfit. しかし、トレーニングやテストデータの分割やトレーニングデータの過剰が原因で失敗する可能性がある。 0.68
As compared to classic DT, one SLM tree (i.e., SLM Baseline) can exploit discriminant features obtained by probabilistic projections and achieve multiple splits at one node. 従来のDTと比較して、1つのSLMツリー(すなわちSLM Baseline)は確率的射影によって得られる差別的特徴を利用して、1つのノードで複数の分割を達成できる。 0.62
SLM generally yields wider and shallower trees. SLMは通常、より広く、より浅い木を産出する。 0.54
B. Random Forest (RF) B.ランダムフォレスト(RF) 0.71
RF consists of multiple decisions trees. RFは複数の決定木で構成される。 0.67
It is proved in [11] that the predictive performance of RF depends on the strength of individual trees and a measure of their dependence. RFの予測性能は, 個々の木の強度とその依存性の尺度に依存することが[11]で証明された。 0.86
For のために 0.51
英語(論文から抽出)日本語訳スコア
the latter, the lower the better. 後者の方が低いほど良い。 0.66
To achieve higher diversity, RF training takes only a fraction of training samples and features in building a tree, which trades the strength of each DT for the general ensemble performance. 多様性を高めるために、RFトレーニングは、一般的なアンサンブルのパフォーマンスのために各DTの強度を交換する木を構築する際に、わずかなトレーニングサンプルと特徴しか必要としない。 0.65
In practice, several effective designs are proposed to achieve uncorrelated individual trees. 実際には、関係のない個々の木を実現するために、いくつかの効果的な設計が提案されている。 0.37
For example, bagging [20] builds each tree through random selection with replacement in the training set. 例えば,[20]バッキングは,トレーニングセットに置き換えてランダムに選択することで,各ツリーを構築する。 0.83
Random split selection [21] selects a split at a node among the best splits at random. ランダム分割選択[21]は、最適な分割のうち、ノードの分割をランダムに選択する。 0.81
In [22], a random subset of features is selected to grow each tree. 22]では、各木を成長させるために、特徴のランダムなサブセットが選択される。 0.67
Generally speaking, RF uses bagging and feature randomness to create uncorrelated trees in a forest, and their combined prediction is more accurate than that of an individual tree. 一般的に、RFはバグギングと特徴ランダム性を用いて森に非相関木を生成し、それらの組み合わせ予測は個々の木よりも正確である。 0.79
In contrast, the tree building process in SLM Forest always takes all training samples and the whole feature space into account. 対照的に、slm forestのツリー構築プロセスは、常にすべてのトレーニングサンプルと機能空間を考慮に入れています。 0.70
Yet, it utilizes feature randomness to achieve the diversity of each SLM tree as described in Sec. しかし,特徴ランダム性を利用して各SLM木の多様性を実現する。
訳抜け防止モード: しかし 特徴的ランダム性を利用して secに記載された各slm木の多様性を実現する。
0.68
III-A. Besides effective diversity of SLM trees, the strength of each SLM tree is not affected in SLM Forest. III-A。 SLM樹の有効多様性に加えて、各SLM木の強度はSLM林には影響しない。 0.53
With stronger individual learners and effective diversity, SLM Forest achieves better predictive performance and faster convergence in terms of the tree number. より強い個人学習者や効果的な多様性により、SLM Forestは、木数の観点から予測性能とより速い収束を達成する。 0.65
C. Gradient Boosting Decision Tree (GBDT) C. Gradient Boosting Decision Tree (GBDT) 0.47
Gradient boosting is another ensemble method of weak learners. グラディエントブースティングは弱い学習者のアンサンブル手法である。 0.46
It builds a sequence of weak prediction models. 一連の弱い予測モデルを構築します。 0.71
Each new model attempts to compensate the prediction residual left in previous models. それぞれの新しいモデルは、以前のモデルに残された予測残差を補償しようとする。 0.71
The gradient boosting decision tree (GBDT) methods includes [7], which performs the standard gradient boosting, and XGBoost [9], [10], which takes the Taylor series expansion of a general loss function and defines a gain so as to perform more effective node splittings than standard DTs. グラデーション強化決定木(GBDT)法は、標準勾配増強を行う[7]と、一般損失関数のテイラー級数展開を取り入れ、標準DTよりも効率的なノード分割を行うようにゲインを定義するXGBoost[9],[10]とを含む。 0.64
SLM Boost mimics the boosting process of XGBoost but replaces DTs with SLM trees. SLM BoostはXGBoostのブースティングプロセスを模倣するが、DTをSLMツリーに置き換える。 0.84
As compared with standard GBDT methods, SLM Boost achieves faster convergence and better performance as a consequence of stronger performance of an SLM tree. 標準GBDT法と比較して、SLM Boostは、SLMツリーの性能向上の結果、より高速な収束と性能向上を実現している。 0.64
D. Multilayer Perceptron (MLP) D.多層パーセプトロン(MLP) 0.87
Since its introduction in 1958 [3], MLP has been well studied and broadly applied to many classification and regression tasks [23], [24], [25]. 1958年に導入された[3]以来、MLPは多くの分類および回帰タスク [23], [24], [25] によく研究され、広く適用されてきた。 0.86
Its universal approximation capability is studied in [26], [27], [28], [29]. その普遍近似能力は [26], [27], [28], [29] で研究されている。 0.80
The design of a practical MLP solution can be categorized into two approaches. 実用的なMLPソリューションの設計は2つのアプローチに分類できる。 0.84
First, one can propose an architecture and fine tune parameters at each layer through back propagation. まず、アーキテクチャを提案し、バックプロパゲーションを通じて各レイヤのパラメータを微調整する。 0.62
For the MLP architecture, it is often to evaluate different networks through trials and errors. mlpアーキテクチャでは、試行錯誤によって異なるネットワークを評価することがしばしばある。 0.63
Design strategies include tabu search [30] and simulated annealing [31]. デザイン戦略にはタブサーチ[30]とシミュレートされたアニール[31]が含まれる。 0.71
There are quite a few MLP variants. MLPには様々な種類がある。 0.79
In convolutional neural networks (CNNs) [32], [33], [34], [35], convolutional layers share neurons’ weights and biases across different spatial locations while fully-connected layers are the same as traditional MLPs. 畳み込みニューラルネットワーク(CNN) [32], [33], [34], [35] では、畳み込み層はニューロンの重みとバイアスを異なる空間的位置にわたって共有するが、完全連結層は従来のMLPと同じである。 0.83
MLP also serves as the building blocks in transformer models [36], [37]. MLPはトランスモデル[36],[37]のビルディングブロックとしても機能する。 0.69
Second, one can design an MLP by constructing its model layer after layer, e g , [38], [39], [40], [41]. 第2に、モデル層を、例えば、[38], [39], [40], [41] の後に構築することで、MDPを設計することができる。
訳抜け防止モード: 第二に、モデル層を後層に構築することで、MLPを設計できる。 e g, [ 38 ], [ 39 ], [ 40 ], [ 41 ] .
0.85
To incrementally add new layers, some suggest an optimization method which is similar to the first approach, e g [42], [43], [44]. 新しいレイヤを漸進的に追加するために、最初のアプローチであるeg[42], [43], [44]に類似した最適化手法を提案する者もいる。 0.77
They adjust the parameters of the newly 彼らは新しいパラメータを調整する 0.86
10 added hidden layer and determine the parameters without back propagation, e g [45], [46], [47]. 10 隠れレイヤを追加して、バックプロパゲーションなしでパラメータを決定する、例えば[45], [46], [47]。
訳抜け防止モード: 10 隠れた層を追加して、バック伝搬なしでパラメータを決定する。 [ 46 ] , [ 47 ] .
0.58
The convolution operation in neural networks changes the input feature space to an output feature space, which serves as the input to the next layer. ニューラルネットワークにおける畳み込み操作は、入力特徴空間を次の層への入力として機能する出力特徴空間に変更する。 0.82
Nonlinear activation in a neuron serves as a partition of the output feature space and only one half subspace is selected to resolve the sign confusion problem caused by the cascade of convolution operations [48], [4]. ニューロンの非線形活性化は出力特徴空間の分割として機能し、畳み込み操作のカスケードによる符号混乱問題を解決するために、半部分空間が1つだけ選択される[48],[4]。 0.82
In contrast, SLM does not change the feature space at all. 対照的に、SLMは機能空間をまったく変更していません。 0.65
The probabilistic projection in SLM is simply used for feature space partitioning without generating new features. SLMの確率射影は、新しい機能を発生させることなく、単に特徴空間分割に使用される。 0.70
Each tree node splitting corresponds to a hyperplane partitioning through weights and bias learning. 各木ノード分割は、重みとバイアス学習による超平面分割に対応する。 0.72
As a result, both half subspaces can be preserved. その結果、両方の半部分空間を保存できる。 0.72
SLM learns partitioning parameters in a feedforward and probabilistic approach, which is efficient and transparent. SLMは、効率的で透明なフィードフォワードおよび確率的アプローチでパーティショニングパラメータを学習する。 0.80
E. Extreme Learning Machine (ELM) E. Extreme Learning Machine (ELM) 0.48
ELM [5] adopts random weights for the training of feedforward neural networks. ELM[5]はフィードフォワードニューラルネットワークのトレーニングにランダムウェイトを採用する。 0.72
Theory of random projection learning models and their properties (e g , interpolation and universal approximation) have been investigated in [49], [50], [51], [52]. ランダム射影学習モデルの理論とそれらの性質(補間および普遍近似など)は [49], [50], [51], [52] において研究されている。 0.81
To build MLP with ELM, one can add new layers with randomly generated weights. ELMでMLPを構築するには、ランダムに生成された重みを持つ新しいレイヤを追加すればよい。 0.59
However, the long training time and the large model size due to a large search space imposes their constraints in practical applications. しかし、大きな探索空間による長い訓練時間と大きなモデルサイズは、実際の応用に制約を課している。 0.74
SLM Baseline does take the efficiency into account. SLM Baselineは効率を考慮に入れている。 0.85
It builds a general decision tree through probabilistic projections, which reduces the search space by leveraging most discriminant features with several hyper-parameters. 確率射影により一般的な決定木を構築し、複数のハイパーパラメータを持つほとんどの識別特徴を活用することにより、探索空間を小さくする。 0.60
We use the term “probabilistic projection” rather than “random projection” to emphasize their difference. その違いを強調するために、私たちは“ランダム・プロジェクション”ではなく“確率的プロジェクション”という用語を使用します。 0.51
VII. CONCLUSION AND FUTURE WORK VII。 コンキュレーション及び将来の作業 0.71
In this paper, we proposed a novel machine learning model called the subspace learning machine (SLM). 本稿では,サブスペース学習マシン(SLM)と呼ばれる新しい機械学習モデルを提案する。 0.80
SLM combines feedforward multilayer perceptron design and decision tree to learn discriminate subspace and make predictions. SLMはフィードフォワード多層パーセプトロン設計と決定木を組み合わせて、識別部分空間を学習し、予測を行う。 0.68
At each subspace learning step, SLM utilizes hyperplane partitioning to evaluate each feature dimension, and probabilistic projection to learn parameters for perceptrons for feature learning, the most discriminant subspace is learned to partition the data into child SLM nodes, and the subspace learning process is conducted iteratively, final predictions are made with pure SLM child nodes. 各サブスペース学習ステップにおいて、slmはハイパープレーン分割を利用して各特徴次元を評価し、確率的投射によりパーセプトロンのパラメータを学習し、最も識別性の高いサブスペースを学習してデータを子slmノードに分割し、反復的にサブスペース学習プロセスを行い、純粋なslm子ノードで最終予測を行う。 0.74
SLM is light-weight, mathematically transparent, adaptive to high dimensional data, and achieves stateof-the-art benchmarking performance. SLMは軽量で数学的に透過的で、高次元データに適応し、最先端のベンチマーク性能を実現する。 0.50
SLM tree can serve as weak classifier in general boosted and bootstrap aggregation methods as a more generalized model. SLMツリーは、より一般化されたモデルとして、一般的なブーストおよびブートストラップアグリゲーションメソッドにおいて弱い分類器として機能することができる。 0.49
Recently, research on unsupervised representation learning for images has been intensively studied, e g , [53], [54], [55], [56], [57]. 近年,画像の教師なし表現学習に関する研究が盛んに行われており,その例として,[53], [54], [55], [56], [57] が挙げられる。 0.82
The features associated with their labels can be fed into a classifier for supervised classification. ラベルに関連する機能は、教師付き分類のための分類器に入力することができる。 0.66
Such a system adopts the traditional pattern recognition paradigm with feature extraction and classification modules in cascade. このようなシステムは、カスケード内の特徴抽出と分類モジュールを備えた伝統的なパターン認識パラダイムを採用する。 0.70
The feature dimension for these problems are in the order of hundreds. これらの問題の特徴次元は数百の順序である。 0.70
It will be interesting to investigate the effectiveness of SLM for problems of the high-dimensional input feature space. 高次元入力特徴空間の問題に対するslmの有効性を検討することは興味深い。 0.72
英語(論文から抽出)日本語訳スコア
The sizes of the classification models in Table 2 are com- 表2における分類モデルのサイズは総括的である 0.88
puted below. APPENDIX • Circle-and-Ring. 下に置いた 付録 •円とリング。 0.53
FF-MLP has four Gaussian components for the ring and one Gaussian blob for the circle. ff-mlp は環のガウス成分が4つ、円のガウスブロブが1つある。 0.57
As a result, there are 8 and 9 neurons in the two hidden layers with 125 parameters in total. その結果、2つの隠れた層に8と9のニューロンが存在し、合計125のパラメータを持つ。 0.77
LSVM has 600 slack variables, 591 support vectors and one bias, resulting in 2,965 parameters. LSVMは600のスラック変数、591のベクターと1つのバイアスを持ち、2,965のパラメータを持つ。 0.69
SVM/RBF kernel has 600 slack variables, 206 support vectors and one bias, resulting in 1,425 parameters. SVM/RBFカーネルは600のスラック変数、206のサポートベクターと1つのバイアスを持ち、1,425のパラメータを持つ。
訳抜け防止モード: SVM / RBFカーネルには600のスラック変数、206のサポートベクトルがある 一つの偏見は パラメータは1,425です
0.68
DT has 175 splits to generate a tree of depth 14, resulting in 350 parameters. DTは175の分割を持ち、深さ14のツリーを生成し、350のパラメータを生成する。 0.72
SLM utilizes two input features to build a tree of depth 4. SLMは2つの入力特徴を利用して深さ4のツリーを構築する。 0.68
The node numbers at each level are 1, 4, 4, 10 and 8, respectively. 各レベルにおけるノード番号は 1, 4, 10, 8 である。 0.72
It has 13 partitions and 39 parameters. 13のパーティションと39のパラメータを持つ。 0.74
• 2-New-Moons. • 2-New-Moons。 0.28
• 4-New-Moons. FF-MLP has 2 Gaussian components for each class, 8 neurons in each of two hidden layers, and 114 parameters in total. •4枚目。 FF-MLPはクラスごとに2つのガウス成分、隠れた2つの層に8つのニューロン、合計114のパラメータを持つ。 0.54
LSVM has 600 slack variables, 213 support vectors and one bias, resulting in 1,453 parameters. LSVMは600個のスラック変数、213個のサポートベクターと1つのバイアスを持ち、1,453個のパラメータを持つ。
訳抜け防止モード: LSVMには600のスラック変数、213のサポートベクタと1つのバイアスがある。 パラメータは1,453です
0.71
SVM/RBF kernel has 600 slack variables, 176 support vectors and one bias, resulting in 1,305 parameters. SVM/RBFカーネルは600個のスラック変数、176個のサポートベクトルと1つのバイアスを持ち、1,305個のパラメータを持つ。
訳抜け防止モード: SVM / RBFカーネルには600のスラック変数、176のサポートベクトルがある 一つの偏見は パラメータは1,305です
0.68
DT has 143 splits to generate a tree of depth 15, resulting in 286 parameters. DTは143の分割を持ち、深さ15のツリーを生成し、286のパラメータを生成する。 0.72
SLM has a tree of depth 4 and the node numbers at each level are 1, 4, 8, 12 and 4, respectively. SLM は深さ 4 のツリーを持ち、各レベルのノード番号はそれぞれ 1, 4, 8, 12 と 4 である。 0.83
It has 14 partitions and 42 parameters. 14のパーティションと42のパラメータを持つ。 0.77
FF-MLP has three Gaussian components for each class, 18 and 28 neurons in two hidden layers, respectively, and 702 parameters in total. FF-MLPはクラスごとに3つのガウス成分を持ち、それぞれ18と28のニューロンを2つの隠蔽層に、合計702のパラメータを持つ。 0.66
LSVM has 1200 slack variables, 413 support vectors and one bias, resulting in 2,853 parameters. LSVMには1200のスラック変数、413のサポートベクターと1つのバイアスがあり、2,853のパラメータがある。 0.64
SVM/RBF has 1200 slack variables, 417 support vectors and one bias, resulting in 2,869 parameters. SVM/RBFは1200のスラック変数、417のベクトルと1つのバイアスを持ち、2,869のパラメータを持つ。
訳抜け防止モード: SVM / RBF のスラック変数1200、サポートベクトル417 一つの偏見は パラメータは2,869です
0.79
DT for this dataset made 149 splits with max depth of the tree as 11, results in 298 parameters. このデータセットのDTは149個の分割を行い、最大木深さは11となり、298個のパラメータが得られた。
訳抜け防止モード: このデータセットのDTは149個の分割を行い、最大木深さは11。 結果は 298 のパラメータです。
0.77
SLM has a tree is of depth 5 and the node numbers at each level are 1, 4, 16, 22, 16 and 4, respectively. SLMは深さ5のツリーを持ち、各レベルのノード番号はそれぞれ1,4,4,16,22,16,4である。 0.78
It has 31 partitions and 93 parameters. 31のパーティションと93のパラメータを持つ。 0.71
• Iris Dataset. • irisデータセット。 0.82
FF-MLP has two Gaussian components for each class and two partitioning hyper-planes. FF-MLPはクラスごとに2つのガウス成分と2つの分割超平面を持つ。 0.56
It has 4 and 3 neurons at hidden layers 1 and 2, respectively, and 47 parameters in total. 隠された層1と層2に4と3のニューロンがあり、合計47のパラメータを持つ。 0.72
LSVM has 90 slack variables, 24 support vectors and one bias, resulting in 235 parameters. lsvmには90のslack変数と24のサポートベクターと1つのバイアスがあり、235のパラメータがある。 0.67
SVM/RBF has 90 slack variables, 42 support vectors and one bias, resulting in 343 parameters. SVM/RBFはスラック変数90、サポートベクトル42、バイアス1、パラメータ343である。 0.72
DT has 17 splits with a tree of max depth 6, results in 34 parameters. DTは17の分割があり、最大深さ6のツリーは34のパラメータを持つ。 0.80
SLM uses all 4 input dimensions and has a tree of depth 3. SLMは4つの入力次元全てを使用し、深さ3のツリーを持つ。 0.70
The node numbers at each level are 1, 2, 2 and 4, respectively. 各レベルにおけるノード番号は 1, 2, 2, 4 である。 0.79
It has 4 partitions and 20 parameters. 4つのパーティションと20のパラメータを持つ。 0.73
• Wine Dataset. ・ワインデータセット。 0.68
11 and one bias, resulting in 963 parameters. 11 1つのバイアスで963のパラメータが得られます 0.57
DT has 13 splits with a tree of max depth 4, results in 26 parameters. DTは、最大深さ4の木で13の分割を持ち、26のパラメータを持つ。 0.77
SLM sets D0 = 8 and has a tree of depth 2. SLM は D0 = 8 とし、深さ 2 のツリーを持つ。 0.76
There are 1, 8 and 256 nodes at each level, respectively. 各レベルには 1, 8 と 256 のノードがある。 0.74
It has 11 partitions and 99 parameters. 11のパーティションと99のパラメータを持つ。 0.77
• B.C.W. Dataset. ・B.C.W.データセット 0.54
FF-MLP assigns two Gaussian components to each class. FF-MLPは2つのガウス成分を各クラスに割り当てる。 0.59
There are two neurons at each of the two hidden layers. 2つの隠れた層に2つのニューロンがある。 0.72
The model has 74 parameters. モデルには74のパラメータがある。 0.71
LSVM has 341 slack variables, 35 support vectors and one bias, resulting in 1,462 parameters. LSVMには341のスラック変数、35のサポートベクトル、1つのバイアスがあり、1,462のパラメータがある。 0.63
SVM with RBF kernel has 341 slack variables, 91 support vectors and 1 bias, resulting in 3,254 parameters. RBFカーネルを持つSVMには341のスラック変数、91のサポートベクトル、1のバイアスがあり、3,254のパラメータがある。 0.66
DT has 27 splits with a tree of max depth 7, results in 54 parameters. DTは27の分割があり、最大深さ7の木は54のパラメータを持つ。 0.82
SLM sets D0 = 5 and has a tree of depth 4 with 1, 8, 16, 8 and 32 nodes at each level, respectively. SLM は D0 = 5 をセットし、それぞれ1, 8, 16, 8, 32 個のノードを持つ深さ 4 のツリーを持つ。 0.83
It has 21 partitions and 126 parameters. 21のパーティションと126のパラメータを持つ。 0.74
• Diabetes Dataset. ・糖尿病データセット 0.73
FF-MLP has 18 and 88 neurons at two hidden layers, respectively. FF-MLPはそれぞれ18と88のニューロンを2つの隠れた層に持つ。 0.66
The model has 2,012 parameters. パラメータは2,012である。 0.69
LSVM has 461 slack variables, 107 support vectors and one bias, resulting in 1,532 parameters. LSVMは461個のスラック変数、107個のサポートベクターと1つのバイアスを持ち、1,532個のパラメータを持つ。
訳抜け防止モード: LSVMには461のスラック変数、107のサポートベクターと1つのバイアスがある。 パラメータは1,532です
0.70
SVM/RBF has 461 slack variables, 134 support vectors and one bias, resulting in 1,802 parameters. SVM/RBFは461のスラック変数、134のサポートベクトル、1つのバイアスを持ち、1,802のパラメータを持つ。 0.54
DT has 65 splits with a tree of max depth 8, results in 130 parameters. DTは65の分割を持ち、最大深度8のツリーは130のパラメータを持つ。 0.81
SLM sets D0 = 4 and has a tree of depth 3 with 1, 2, 16 and 20 nodes at each level, respectively. SLMはD0 = 4をセットし、それぞれ1, 2, 16, 20個のノードを持つ深さ3のツリーを持つ。 0.83
It has 11 partitions and 55 parameters. 11のパーティションと55のパラメータを持つ。 0.76
• Ionosphere Dataset. •電離圏データセット。 0.56
FF-MLP has 6 and 8 neurons in hidden layers 1 and 2, respectively. FF-MLPはそれぞれ6と8のニューロンを隠蔽層1と2に有する。 0.81
It has 278 parameters. パラメータは278である。 0.85
LSVM has 211 slack variables, 23 support vectors and one bias, resulting in 1017 parameters. LSVMはスラック変数が211、サポートベクタが23、バイアスが1、パラメータが1017である。 0.77
SVM/RBF has 211 slack variables, 57 support vectors and one bias, resulting in 2,207 parameters. SVM/RBFはスラック変数が211、サポートベクトルが57、バイアスが1、パラメータが2,207である。 0.66
DT has 25 splits with a tree of max depth 10, resulting in 50 parameters. DTは25の分割を持ち、最大深さ10のツリーは50のパラメータを持つ。 0.85
SLM sets D0 = 5 and has a tree of depth 2 with 1, 4 and 20 nodes at each level, respectively. SLM は D0 = 5 をセットし、各レベルに 1 と 4 と 20 のノードを持つ深さ 2 のツリーを持つ。 0.86
It has 13 partitions and 78 parameters. 13のパーティションと78のパラメータを持つ。 0.74
• Banknote Dataset. • 紙幣のデータセット。 0.61
FF-MLP has two neurons at each of the two hidden layers. FF-MLPは2つの隠れた層それぞれに2つのニューロンを持つ。 0.62
It has 22 parameters. 22のパラメータを持つ。 0.81
LSVM has 823 slack variables, 56 support vectors and one bias, resulting in 1,160 parameters. LSVMには823のスラック変数、56のサポートベクトル、1つのバイアスがあり、1,160のパラメータがある。 0.61
SVM/RBF has 823 slack variables, 83 support vectors and one bias, resulting in 1,322 parameters. SVM/RBFは823個のスラック変数、83個のサポートベクトルと1つのバイアスを持ち、1,322個のパラメータを持つ。
訳抜け防止モード: SVM / RBF は 823 個のスラック変数、83 個のサポートベクトルを持つ 一つの偏見は パラメータは1,322です
0.63
DT has 39 splits with a tree of max depth 7, resulting in 78 parameters. DTは39の分割があり、最大深度7のツリーは78のパラメータを持つ。 0.86
SLM uses all input features and has a tree of depth 3 with 1, 2, 8 and 16 nodes at each level, respectively. SLMは全ての入力機能を使用し、それぞれ1, 2, 8, 16個のノードを持つ深さ3のツリーを持つ。 0.78
It has 8 partitions and 40 parameters. 8つのパーティションと40のパラメータを持つ。 0.70
REFERENCES [1] C. Cortes and V. Vapnik, “Support-vector networks,” Machine learning, 参考 [1] c. cortes と v. vapnik, “support-vector networks”, machine learning, 0.46
vol. 20, no. 3, pp. 273–297, 1995. vol.1。 20, 3, pp. 273-297, 1995。 0.62
[2] L. Breiman, J. Friedman, C. Stone, and R. Olshen, “Classification and [2] l. breiman, j. friedman, c. stone, r. olshen, "分類と分類" 0.35
regression trees (crc, boca raton, fl),” 1984. 回帰木 (crc, boca raton, fl)" 1984。 0.60
[3] F. Rosenblatt, “The perceptron: a probabilistic model for information storage and organization in the brain.” [3] f. rosenblatt, “the perceptron: a probabilistic model for information storage and organization in the brain”。 0.41
Psychological review, vol. 心理学評論、Vol。 0.67
65, no. 6, p. 386, 1958. 65, no. 6, p. 386, 1958。 0.90
FF-MLP assigns two Gaussian components to each class. FF-MLPは2つのガウス成分を各クラスに割り当てる。 0.59
There are 6 neurons at each of two hidden layers. 2つの隠れた層に6つのニューロンがある。 0.70
It has 147 parameters. パラメータは147である。 0.82
LSVM has 107 slack variables, 23 support vectors and one bias, resulting in 453 parameters. lsvmには107のslack変数、23のサポートベクターと1つのバイアスがあり、453のパラメータがある。 0.63
SVM/RBF has 107 slack variables, 57 support vectors SVM/RBFは107個のスラック変数、57個のサポートベクトルを持つ 0.56
[4] R. Lin, Z. Zhou, S. You, R. Rao, and C. [4]R. Lin,Z. Zhou,S. You,R. Rao,C。 0.43
-C. J. Kuo, “From twoclass linear discriminant analysis to interpretable multilayer perceptron design,” arXiv preprint arXiv:2009.04442, 2020. -C。 J. Kuo, “From twoclass linear discriminant analysis to interpretable multilayer perceptron design” arXiv preprint arXiv:2009.04442, 2020.
訳抜け防止モード: -C。 J. Kuo, “二級線形判別分析から解釈可能な多層パーセプトロン設計へ” arXiv preprint arXiv:2009.04442 , 2020
0.61
[5] G. G (複数形 Gs) 0.50
-B. Huang, Q. -Y. -B。 ハン、q。 -y。 0.41
Zhu, and C. -K. Siew, “Extreme learning machine: theory and applications,” Neurocomputing, vol. ズーとcだ -K。 Sew, “Extreme Learning Machine: Theory and Applications”, Neurocomputing, vol. 0.39
70, no. 1-3, pp. 489–501, 2006. 70, No. 1-3, pp. 489–501, 2006。 0.43
英語(論文から抽出)日本語訳スコア
[6] L. Breiman, “Random forests,” Machine learning, vol. [6]L. Breiman, “Random forests”, Machine Learning, vol。 0.39
45, no. 1, pp. 45, No. 1, pp。 0.41
5–32, 2001. 5–32, 2001. 0.42
[7] J. H. Friedman, “Greedy function approximation: a gradient boosting 7]j.h.フリードマン「グリーディ関数近似:勾配ブースティング」 0.62
machine,” Annals of statistics, pp. 1189–1232, 2001. anals of statistics, pp. 1189-1232, 2001を参照。 0.61
[8] Y. Yang, W. Wang, H. Fu, and C. [8]y.yang,w.ww,h.fu,c。 0.54
-C. J. Kuo, “On supervised feature selection from high dimensional feature spaces,” arXiv preprint arXiv:2203.11924, 2022. -C。 J. Kuo, “On supervised feature selection from High dimensional feature space” arXiv preprint arXiv:2203.11924, 2022。
訳抜け防止モード: -C。 J. Kuo, “高次元特徴空間からの教師付き特徴選択について” arXiv preprint arXiv:2203.11924 , 2022
0.60
[9] T. Chen, T. He, M. Benesty, V. Khotilovich, Y. Tang, H. Cho, K. Chen et al , “Xgboost: extreme gradient boosting,” R package version 0.4-2, vol. [9]T. Chen, T. He, M. Benesty, V. Khotilovich, Y. Tang, H. Cho, K. Chen et al , “Xgboost: extreme gradient boosting, R package version 0.4-2, vol.
訳抜け防止モード: [9 ]T. Chen, T. He, M. Benesty, V. Khotilovich, Y. Tang, H. Cho, K. Chenら Xgboost : extreme gradient boosting, ” R package version 0.4 - 2,vol である。
0.89
1, no. 4, pp. 1–4, 2015. 第1巻、第4巻、p.1-4、2015年。 0.41
[10] T. Chen and C. Guestrin, “Xgboost: A scalable tree boosting system,” in Proceedings of the 22nd acm sigkdd international conference on knowledge discovery and data mining, 2016, pp. 785–794. 10] t. chen and c. guestrin, “xgboost: a scalable tree boosting system” in the 22nd acm sigkdd international conference on knowledge discovery and data mining, 2016 pp. 785-794. (英語)
訳抜け防止モード: [10 ]T. Chen, C. Guestrin, “Xgboost : a scalable tree boosting system” 第22回シグクッド国際知識発見会議 およびデータマイニング , 2016 , pp . 785–794 。
0.72
[11] Y. Amit and D. Geman, “Shape quantization and recognition with randomized trees,” Neural computation, vol. 11] y. amit と d. geman, “shape quantization and recognition with randomized trees”, neural computation, vol.1 (英語)
訳抜け防止モード: 11 ] y. amit と d. geman, “shape quantization and recognition with randomized trees” ニューラルネットワークの計算。
0.68
9, no. 7, pp. 1545–1588, 1997. 9,7,p.1545-1588,1997 。 0.60
[12] F. Pedregosa, G. Varoquaux, A. Gramfort, V. Michel, B. Thirion, O. Grisel, M. Blondel, P. Prettenhofer, R. Weiss, V. Dubourg et al , “Scikit-learn: Machine learning in python,” the Journal of machine Learning research, vol. F. Pedregosa, G. Varoquaux, A. Gramfort, V. Michel, B. Thirion, O. Grisel, M. Blondel, P. Prettenhofer, R. Weiss, V. Dubourg et al , “Scikit-learn: Machine Learning in python”, Journal of Machine Learning Research, Vol. 0.47
12, pp. 2825–2830, 2011. 12, pp. 2825–2830, 2011。 0.88
[13] R. A. Fisher, “The use of multiple measurements in taxonomic prob- 13]r.a.フィッシャー著『分類学における多重測定の利用-』 0.70
lems,” Annals of eugenics, vol. anals of eugenics, vol. “lems” (英語) 0.54
7, no. 2, pp. 179–188, 1936. 7, 2, pp. 179–188, 1936。 0.80
[14] A. Asuncion and D. Newman, “Uci machine learning repository,” 2007. [14] a. asuncion, d. newman, “uci machine learning repository” 2007年。 0.77
[15] J. W. Smith, J. E. Everhart, W. Dickson, W. C. Knowler, and R. S. Johannes, “Using the adap learning algorithm to forecast the onset of diabetes mellitus,” in Proceedings of the annual symposium on computer application in medical care. J. W. Smith, J. E. Everhart, W. Dickson, W. C. Knowler, R. S. Johannesは、医療におけるコンピュータ応用に関する毎年恒例のシンポジウムで、“糖尿病の発症を予測するためのアダプラーニングアルゴリズムを使用している”と述べている。 0.76
American Medical Informatics Association, 1988, p. 261. アメリカ医学情報学会、1988年、p.261。 0.79
[16] J. P. G¨opfert, H. Wersing, and B. Hammer, “Interpretable locally adaptive nearest neighbors,” Neurocomputing, vol. J・P・G・オプファート、H・ワーシング、B・ハマー、"解釈可能な局所的適応的近接隣人"、Neurocomputing, vol。
訳抜け防止モード: [16 ]J・P・G・オプファート、H・ワーシング、B・ハマー。 解釈可能な局所適応型近接隣人, ニューロコンピューティング, vol.
0.62
470, pp. 344–351, 2022. 470, pp. 344–351, 2022。 0.93
[17] J. H. Friedman, “Multivariate adaptive regression splines,” The annals 17]j.h.フリードマン著, 『多変量適応回帰スプライン』, annals 0.65
of statistics, vol. 統計学では Vol. 0.80
19, no. 1, pp. 1–67, 1991. 19.1、p.1-67、1991。 0.66
[18] J. R. Quinlan, “Induction of decision trees,” Machine learning, vol. J.R. Quinlan, “Induction of decision tree”, Machine Learning, vol. [18] J.R. Quinlan 0.38
1, no. 1, pp. 81–106, 1986. 1, 第1巻p.81-106、1986年。 0.52
[19] T. Chen and C. Guestrin, “Xgboost: A scalable tree boosting system,” in Proceedings of the 22nd acm sigkdd international conference on knowledge discovery and data mining, 2016, pp. 785–794. 19] t. chen and c. guestrin, “xgboost: a scalable tree boosting system” in the 22nd acm sigkdd international conference on knowledge discovery and data mining, 2016 pp. 785-794. (英語)
訳抜け防止モード: [19 ]T. Chen, C. Guestrin, “Xgboost : a scalable tree boosting system” 第22回シグクッド国際知識発見会議 およびデータマイニング , 2016 , pp . 785–794 。
0.71
[20] L. Breiman, “Bagging predictors,” Machine learning, vol. 20] l. breiman, “bagging predictors”, machine learning, vol。 0.69
24, no. 2, pp. 24, No. 2, pp. 0.41
123–140, 1996. 123–140, 1996. 0.42
[21] T. G. Dietterich, “An experimental comparison of three methods for constructing ensembles of decision trees: Bagging, boosting, and randomization,” Machine learning, vol. 21]t.g. dietterich, “意思決定木(bagging, boosting, and randomization)のアンサンブルを構築するための3つの方法の実験的な比較”、と機械学習は述べている。 0.67
40, no. 2, pp. 139–157, 2000. 40, no. 2, pp. 139–157, 2000。 0.92
[22] T. K. Ho, “The random subspace method for constructing decision forests,” IEEE transactions on pattern analysis and machine intelligence, vol. 22] t.k. ho, “the random subspace method for construction decision forests”, ieee transactions on pattern analysis and machine intelligence, vol. ] (英語)
訳抜け防止モード: 22 ] t.k. ho, “決定的森林を構築するためのランダムな部分空間法” ieee transactions on pattern analysis and machine intelligence, vol。
0.81
20, no. 8, pp. 832–844, 1998. 20. 8, pp. 832-844, 1998。 0.76
[23] A. Ahad, A. Fayyaz, and T. Mehmood, “Speech recognition using multilayer perceptron,” in IEEE Students Conference, ISCON’02. 23] a. ahad, a. fayyaz, t. mehmood, “speech recognition using multilayer perceptron” in ieee students conference, iscon’02. (英語)
訳抜け防止モード: A. Ahad, A. Fayyaz, T. Mehmood. IEEE Students Conference,ISCON’02における「多層パーセプトロンを用いた音声認識」について検討した。
0.79
Proceedings. , vol. 1. 手続きだ ヴォル。 1. 0.40
IEEE, 2002, pp. 103–109. IEEE, 2002, pp. 103-109。 0.86
[24] A. V. Devadoss and T. A. A. Ligori, “Forecasting of stock prices using multi layer perceptron,” International journal of computing algorithm, vol. international journal of computing algorithm, vol. “24] a. v. devadossとt. a. a. ligoriは、“多層パーセプトロンによる株価の予測”、と言っている。 0.64
2, no. 1, pp. 440–449, 2013. 2, No. 1, pp. 440-449, 2013 0.43
[25] K. Sivakumar and U. B. Desai, “Image restoration using a multilayer perceptron with a multilevel sigmoidal function,” IEEE transactions on signal processing, vol. [25]K. SivakumarとU.B. Desai, “マルチレベルシグモダル関数を持つ多層パーセプトロンを用いた画像復元”, IEEEの信号処理に関するトランザクション, Vol。 0.79
41, no. 5, pp. 2018–2022, 1993. 41, no. 5, pp. 2018–2022, 1993 頁。 0.86
[26] G. Cybenko, “Approximation by superpositions of a sigmoidal function,” Mathematics of control, signals and systems, vol. [26] g. cybenko, "sgmoidal functionの重ね合わせによる近似", 制御, 信号, システム数学, vol。 0.68
2, no. 4, pp. 303–314, 1989. 2, No. 4, pp. 303–314, 1989。 0.47
[27] K. Hornik, M. Stinchcombe, and H. White, “Multilayer feedforward networks are universal approximators,” Neural networks, vol. [27] k. hornik, m. stinchcombe, h. white, “multilayer feedforward networks are universal approximator”(多層フィードフォワードネットワークは普遍的近似である)。 0.76
2, no. 5, pp. 359–366, 1989. 2, 5, pp. 359-366, 1989。 0.77
[28] M. Stinchombe, “Universal approximation using feed-forward networks with nonsigmoid hidden layer activation functions,” Proc. [28] m. stinchombe, “非sigmoid hidden layer activation functionのフィードフォワードネットワークを用いた普遍近似” proc。 0.83
IJCNN, Washington, DC, 1989, pp. 161–166, 1989. IJCNN, Washington, DC, 1989, pp. 161–166, 1989. 0.48
[29] M. Leshno, V. Y. Lin, A. Pinkus, and S. Schocken, “Multilayer feedforward networks with a nonpolynomial activation function can approximate any function,” Neural networks, vol. M. Leshno, V. Y. Lin, A. Pinkus, S. Schocken, “非多項式活性化関数を持つ多層フィードフォワードネットワークは、任意の関数を近似することができる”。 0.81
6, no. 6, pp. 861–867, 1993. 6,6, pp. 861-867, 1993。 0.69
[30] F. Glover, “Future paths for integer programming and links to artificial intelligence,” Computers & operations research, vol. とComputers & Operations Research, vol.[30] F. Glover, “整数プログラミングと人工知能へのリンクのための将来の道”. 0.89
13, no. 5, pp. 533– 549, 1986. 13 no. 5, pp. 533–549, 1986年。 0.82
[31] S. Kirkpatrick, C. D. Gelatt Jr, and M. P. Vecchi, “Optimization by simulated annealing,” science, vol. S. Kirkpatrick, C. D. Gelatt Jr, and M. P. Vecchi, “Optimization bysimulated annealing”, Science, vol。
訳抜け防止モード: 【31】s・カークパトリック、c・d・ゲラット・ジュニア そしてm.p. vecchi, “optimize by simulated annealing, ” science, vol. 。
0.65
220, no. 4598, pp. 671–680, 1983. 220, No. 4598, pp. 671-680, 1983。 0.95
[32] Y. LeCun, L. Bottou, Y. Bengio, and P. Haffner, “Gradient-based learning applied to document recognition,” Proceedings of the IEEE, vol. Y. LeCun, L. Bottou, Y. Bengio, P. Haffner, “Gradient-based learning applied to document recognition”, Proceedings of the IEEE, vol。
訳抜け防止モード: [32 ]Y.LeCun,L.Bottou,Y.B engio, そしてP. Haffner氏は,“ドキュメント認識に適用されたグラディエントベースの学習”だ。 IEEE , vol の成果。
0.72
86, no. 11, pp. 2278–2324, 1998. 86, No. 11, pp. 2278–2324, 1998。 0.45
12 [33] Y. LeCun, B. Boser, J. S. Denker, D. Henderson, R. E. Howard, W. Hubbard, and L. D. Jackel, “Backpropagation applied to handwritten zip code recognition,” Neural computation, vol. 12 [33] Y. LeCun, B. Boser, J. S. Denker, D. Henderson, R. E. Howard, W. Hubbard, L. D. Jackel, “Backpropagation apply to handwriting zip code Recognition”, Neural Computing, vol。
訳抜け防止モード: 12 [33 ]Y. LeCun, B. Boser, J. S. Denker D・ヘンダーソン、R・E・ハワード、W・ハバード、L・D・ジャッケル。 バックプロパゲーションは手書きのzipコード認識に適用される。
0.55
1, no. 4, pp. 541–551, 1989. 1, no. 4, pp. 541-551, 1989。 0.46
[34] A. Krizhevsky, I. Sutskever, and G. E. Hinton, “Imagenet classification with deep convolutional neural networks,” Advances in neural information processing systems, vol. [34] a. krizhevsky, i. sutskever, g. hinton, “imagenet classification with deep convolutional neural networks”(深層畳み込みニューラルネットワークによるイメージネット分類)は、ニューラル情報処理システムにおける進歩である。
訳抜け防止モード: [34] a. krizhevsky, i. sutskever, g. e. hinton, 深層畳み込みニューラルネットワークによるイメージネット分類” ニューラル情報処理システムにおける進歩,vol。
0.82
25, 2012. [35] Y. LeCun, Y. Bengio, and G. Hinton, “Deep learning,” nature, vol. 25, 2012. Y. LeCun, Y. Bengio, G. Hinton, “Deep Learning, nature, vol。 0.38
521, no. 7553, pp. 436–444, 2015. 521, 第7553号、p.436-444、2015年。 0.52
[36] A. Vaswani, N. Shazeer, N. Parmar, J. Uszkoreit, L. Jones, A. N. Gomez, Ł. A. Vaswani, N. Shazeer, N. Parmar, J. Uszkoreit, L. Jones, A. N. Gomez,
訳抜け防止モード: [36 ]A. Vaswani, N. Shazeer, N. Parmar, J. Uszkoreit , L. Jones , A. N. Gomez 。
0.48
Kaiser, and I. Polosukhin, “Attention is all you need,” Advances in neural information processing systems, vol. kaiser, and i. polosukhin, “attention is all you need” 神経情報処理システムにおける進歩, vol。 0.74
30, 2017. [37] A. Dosovitskiy, L. Beyer, A. Kolesnikov, D. Weissenborn, X. Zhai, T. Unterthiner, M. Dehghani, M. Minderer, G. Heigold, S. Gelly et al , “An image is worth 16x16 words: Transformers for image recognition at scale,” arXiv preprint arXiv:2010.11929, 2020. 30, 2017. A. Dosovitskiy, L. Beyer, A. Kolesnikov, D. Weissenborn, X. Zhai, T. Unterthiner, M. Dehghani, M. Minderer, G. Heigold, S. Gelly et al , “画像は16×16ワードの価値があります。
訳抜け防止モード: 30, 2017. [37 ] A. Dosovitskiy, L. Beyer, A. Kolesnikov, D. Weissenborn, X. Zhai, T. Unterthiner, M. Dehghani M. Minderer, G. Heigold, S. Gelly, al. “画像は16×16ワードの価値があります。 arXiv preprint arXiv:2010.11929 , 2020
0.65
[38] R. Parekh, J. Yang, and V. Honavar, “Constructive neural network learning algorithms for multi-category real-valued pattern classification,” Dept. [38] r. parekh, j. yang, v. honavar, “多カテゴリー実値パターン分類のための構築型ニューラルネットワーク学習アルゴリズム”とdeptは書いている。 0.68
Comput. Sci. Comput Sci 0.25
, Iowa State Univ., Tech. アイオワ州立大学出身。 0.49
Rep. ISU-CS-TR97-06, 1997. ISU-CS-TR97-06, 1997 0.25
[39] M. M´ezard and J. [39]M・M・エザードとJ。 0.67
-P. Nadal, “Learning in feedforward layered networks: The tiling algorithm,” Journal of Physics A: Mathematical and General, vol. -P。 Journal of Physics A: Mathematical and General, vol. “フィードフォワード層ネットワークの学習: タイリングアルゴリズム” とNadalは言う。
訳抜け防止モード: -P。 Nadal, “フィードフォワード層ネットワークにおける学習” The tiling algorithm, ”Journal of Physics A : Mathematical and General,vol。
0.63
22, no. 12, p. 2191, 1989. 22 no. 12 p. 2191 1989年。 0.70
[40] M. Frean, “The upstart algorithm: A method for constructing and training feedforward neural networks,” Neural computation, vol. 40] m. frean, “the upstart algorithm: a method to construction and training feedforward neural networks” neural computation, vol. ニューラル計算。 0.41
2, no. 2, pp. 198–209, 1990. 2, No. 2, pp. 198–209, 1990。 0.46
[41] R. Parekh, J. Yang, and V. Honavar, “Constructive neural-network learning algorithms for pattern classification,” IEEE Transactions on neural networks, vol. ieee transactions on neural networks, vol. “constructive neural-network learning algorithms for pattern classification”[41] r. parekh, j. yang, v. honavar, “constructive neural-network learning algorithms for pattern classification”(パターン分類のための構築的ニューラルネットワーク学習アルゴリズム)。
訳抜け防止モード: [41 ]R. Parekh, J. Yang, V. Honavar 構成的ニューラルネットワーク - パターン分類のためのネットワーク学習アルゴリズム、ニューラルネットワーク上のIEEEトランザクション、vol。
0.77
11, no. 2, pp. 436–451, 2000. 11, No. 2, pp. 436–451, 2000。 0.47
[42] T. -Y. [42]T。 -y。 0.36
Kwok and D. -Y. kwokとd。 -y。 0.53
Yeung, “Objective functions for training new hidden units in constructive neural networks,” IEEE Transactions on neural networks, vol. yeung, “objective functions for training new hidden units in constructionive neural networks” ieee transactions on neural networks, vol. ニューラルネットワークのトランザクション。
訳抜け防止モード: 建設的ニューラルネットワークで新しい隠れたユニットを訓練するための目的関数” IEEE Transactions on Neural Network, vol。
0.73
8, no. 5, pp. 1131–1148, 1997. 8, 5, pp. 1131-1148, 1997。 0.73
[43] S. I. Gallant et al , “Perceptron-based learning algorithms,” IEEE Trans- [43]S.I. Gallant et al , “Perceptron-based learning algorithm, IEEE Trans- 0.47
actions on neural networks, vol. ニューラルネットワークのアクション、vol. 0.65
1, no. 2, pp. 179–191, 1990. 1, 2, pp. 179–191, 1990。 0.77
[44] F. F. Mascioli and G. Martinelli, “A constructive algorithm for binary neural networks: The oil-spot algorithm,” IEEE Transactions on Neural Networks, vol. ieee transactions on neural networks, vol. “a constructive algorithm for binary neural networks: the oil-spot algorithm”[44] f. f. mascioli氏とg. martinelli氏は、次のように述べている。 0.70
6, no. 3, pp. 794–797, 1995. 6, No. 3, pp. 794-797, 1995。 0.91
[45] R. Parekh, J. Yang, and V. Honavar, “Constructive neural-network learning algorithms for pattern classification,” IEEE Transactions on neural networks, vol. ieee transactions on neural networks, vol. “constructive neural-network learning algorithms for pattern classification”[45] r. parekh, j. yang, v. honavar, “constructive neural-network learning algorithms for pattern classification”(パターン分類のための構築的ニューラルネットワーク学習アルゴリズム)。
訳抜け防止モード: [45 ]R. Parekh, J. Yang, V. Honavar 構成的ニューラルネットワーク - パターン分類のためのネットワーク学習アルゴリズム、ニューラルネットワーク上のIEEEトランザクション、vol。
0.77
11, no. 2, pp. 436–451, 2000. 11, No. 2, pp. 436–451, 2000。 0.47
[46] J. Yang, R. Parekh, and V. Honavar, “Distal: An inter-pattern distancebased constructive learning algorithm,” Intelligent Data Analysis, vol. J. Yang, R. Parekh, V. Honavar, “Distal: an inter-pattern distance based constructive learning algorithm”, Intelligent Data Analysis, vol。
訳抜け防止モード: [46 ]J. Yang, R. Parekh, V. Honavar パターン間距離に基づく建設的学習アルゴリズム」 Intelligent Data Analysis, vol。
0.71
3, no. 1, pp. 55–73, 1999. 3巻1、p.55-73、1999。 0.48
[47] M. Marchand, “Learning by minimizing resources in neural networks,” M. Marchand, “Learning by Minimize resources in Neural Network”[47]M. Marchand 0.40
Complex Systems, vol. 3, pp. 229–241, 1989. 複雑なシステムだ pp. 229-241, 1989。 0.58
[48] C. -C. [48]C。 -C。 0.39
J. Kuo, “Understanding convolutional neural networks with a mathematical model,” Journal of Visual Communication and Image Representation, vol. とjournal of visual communication and image representation, vol.は書いている。
訳抜け防止モード: j. kuo氏。 journal of visual communication and image representation, vol. 数学モデルによる畳み込みニューラルネットワークの理解
0.67
41, pp. 406–413, 2016. 41, pp. 406-413, 2016。 0.39
[49] G. -B. 49] G。 -B。 0.36
Huang, Q. -Y. Zhu, and C. ハン、q。 -y。 ズーとcだ 0.39
-K. Siew, “Extreme learning machine: theory and applications,” Neurocomputing, vol. -K。 Sew, “Extreme Learning Machine: Theory and Applications”, Neurocomputing, vol. 0.40
70, no. 1-3, pp. 489–501, 2006. 70, No. 1-3, pp. 489–501, 2006。 0.43
[50] G. -B. [50] G。 -B。 0.40
Huang, L. Chen, C. K. Siew et al , “Universal approximation using incremental constructive feedforward networks with random hidden nodes,” IEEE Trans. huang, l. chen, c. k. siewらによると、“ランダムな隠れノードを持つインクリメンタルな構成的フィードフォワードネットワークによる普遍的近似”だ。
訳抜け防止モード: huang, l. chen, c. k. siew et al, “ランダムな隠れノードを持つインクリメンタル構成型フィードフォワードネットワークを用いた普遍近似”。 ieee trans所属。
0.60
Neural Networks, vol. ニューラルネットワーク、vol。 0.63
17, no. 4, pp. 879–892, 2006. 17, no. 4, pp. 879-892, 2006 頁。 0.81
[51] G. -B. [51]g。 -B。 0.38
Huang and L. Chen, “Convex incremental extreme learning huangとl. chenが語る“漸進的なエクストリーム学習” 0.55
machine,” Neurocomputing, vol. とneurocomputing, vol。 0.38
70, no. 16-18, pp. 3056–3062, 2007. 70, no. 16-18, pp. 3056-3062, 2007 頁。 0.71
[52] ——, “Enhanced random search based incremental extreme learning ランダム検索に基づくインクリメンタル・エクストリーム学習の強化”[52] — 0.77
machine,” Neurocomputing, vol. とneurocomputing, vol。 0.38
71, no. 16-18, pp. 3460–3468, 2008. 71, no. 16-18, pp. 3460-3468, 2008 頁。 0.73
[53] Y. Chen, Z. Xu, S. Cai, Y. Lang, and C. [53]Chen,Z.Xu,S.Cai,Y.La ng,C 0.65
-C. J. Kuo, “A saak transform approach to efficient, scalable and robust handwritten digits recognition,” in 2018 Picture Coding Symposium (PCS). -C。 J. Kuo氏は、2018 Picture Coding Symposium (PCS)で、“効率的でスケーラブルで堅牢な手書き桁認識のためのサーク変換アプローチ”と題している。 0.54
IEEE, 2018, pp. 174–178. IEEE, 2018, pp. 174-178。 0.82
[54] Y. Chen and C. [54]y.チェンとc. 0.78
-C. J. Kuo, “Pixelhop: A successive subspace learning (ssl) method for object recognition,” Journal of Visual Communication and Image Representation, vol. -C。 J. Kuo, "Pixelhop: オブジェクト認識のための連続的なサブスペース学習(ssl)", Journal of Visual Communication and Image Representation, vol。 0.61
70, p. 102749, 2020. 70, p. 102749, 2020。 0.92
[55] Y. Chen, M. Rouhsedaghat, S. You, R. Rao, and C. [55]Chen,M. Rouhsedaghat,S. You,R. Rao,C。 0.37
-C. J. Kuo, “Pixelhop++: A small successive-subspace- learning-based (ssl-based) model for image classification,” in 2020 IEEE International Conference on Image Processing (ICIP). -C。 J. Kuo氏は、2020年のIEEE International Conference on Image Processing (ICIP)で、“Pixelhop++: 画像分類のための小さなサブスペースベース(sslベース)モデル”と題している。 0.51
IEEE, 2020, pp. 3294–3298. IEEE, 2020, pp. 3294–3298。 0.93
[56] C. -C. [56]C。 -C。 0.39
J. Kuo and Y. Chen, “On data-driven saak transform,” Journal of Visual Communication and Image Representation, vol. J. Kuo, Y. Chen, “On data-driven saak transform”, Journal of Visual Communication and Image Representation, vol.
訳抜け防止モード: j. kuo氏とy. chen氏が語る“データ駆動のsaak変換” journal of visual communication and image representation, vol. の略。
0.64
50, pp. 237–246, 2018. 50, pp. 237-246, 2018年。 0.72
[57] C. -C. J. Kuo, M. Zhang, S. Li, J. Duan, and Y. Chen, “Interpretable convolutional neural networks via feedforward design,” Journal of Visual Communication and Image Representation, 2019. 57]C。 -C。 J. Kuo, M. Zhang, S. Li, J. Duan, Y. Chen, “フィードフォワードデザインによる解釈可能な畳み込みニューラルネットワーク”, Journal of Visual Communication and Image Representation, 2019” だ。 0.53
                         ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。