論文の概要、ライセンス

# (参考訳) エラー損失ネットワーク [全文訳有]

Error Loss Networks ( http://arxiv.org/abs/2106.03722v2 )

ライセンス: CC BY 4.0
Badong Chen, Yunfei Zheng, and Pengju Ren(参考訳) 教師付き学習のための誤り損失関数を構築するために,エラー損失ネットワーク(ELN)と呼ばれる新しいモデルを提案する。 ELNは、放射基底関数(RBF)ニューラルネットワークに似た構造であるが、その入力はエラーサンプルであり、出力はそのエラーサンプルに対応する損失である。 つまり、ELNの非線形入出力マッパーはエラー損失関数を生成する。 提案するelnは、情報理論学習(itl)損失関数を特殊ケースとして含む、エラー損失関数の大規模クラスに対する統一モデルを提供する。 ELNの活性化関数、重みパラメータ、ネットワークサイズを、エラーサンプルから特定または学習することができる。 そこで本研究では,学習過程をelnを用いた損失関数の学習,学習継続のための学習損失関数の学習の2段階に分けた新しい機械学習パラダイムを提案する。 提案手法の望ましい性能を示す実験結果が提示された。

A novel model called error loss network (ELN) is proposed to build an error loss function for supervised learning. The ELN is in structure similar to a radial basis function (RBF) neural network, but its input is an error sample and output is a loss corresponding to that error sample. That means the nonlinear input-output mapper of ELN creates an error loss function. The proposed ELN provides a unified model for a large class of error loss functions, which includes some information theoretic learning (ITL) loss functions as special cases. The activation function, weight parameters and network size of the ELN can be predetermined or learned from the error samples. On this basis, we propose a new machine learning paradigm where the learning process is divided into two stages: first, learning a loss function using an ELN; second, using the learned loss function to continue to perform the learning. Experimental results are presented to demonstrate the desirable performance of the new method.
公開日: Tue, 8 Jun 2021 05:50:12 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
Error Loss Networks エラー損失ネットワーク 0.78
Badong Chen, Senior Member, IEEE, Yunfei Zheng, and Pengju Ren, Member, IEEE Badong Chen氏, IEEEシニアメンバ, Yunfei Zheng氏, Pengju Ren氏, IEEEメンバ 0.70
1 1 2 0 2 n u J 1 1 2 0 2 n u J 0.85
8 ] G L . 8 ] G L。 0.81
s c [ 2 v 2 2 7 3 0 sc [ 2 v 2 2 7 3 0 0.68
. 6 0 1 2 : v i X r a . 6 0 1 2 : v i X r a 0.85
Abstract—A novel model called error loss network (ELN) is proposed to build an error loss function for supervised learning. 抽象— 教師あり学習のための誤り損失関数を構築するために,エラー損失ネットワーク(ELN)と呼ばれる新しいモデルを提案する。 0.68
The ELN is in structure similar to a radial basis function (RBF) neural network, but its input is an error sample and output is a loss corresponding to that error sample. ELNは、放射基底関数(RBF)ニューラルネットワークに似た構造であるが、その入力はエラーサンプルであり、出力はそのエラーサンプルに対応する損失である。 0.80
That means the nonlinear input-output mapper of ELN creates an error loss function. つまり、ELNの非線形入出力マッパーはエラー損失関数を生成する。 0.78
The proposed ELN provides a unified model for a large class of error loss functions, which includes some information theoretic learning (ITL) loss functions as special cases. 提案するelnは、情報理論学習(itl)損失関数を特殊ケースとして含む、エラー損失関数の大規模クラスに対する統一モデルを提供する。 0.82
The activation function, weight parameters and network size of the ELN can be predetermined or learned from the error samples. ELNの活性化関数、重みパラメータ、ネットワークサイズを、エラーサンプルから特定または学習することができる。 0.67
On this basis, we propose a new machine learning paradigm where the learning process is divided into two stages: first, learning a loss function using an ELN; second, using the learned loss function to continue to perform the learning. そこで本研究では,学習過程をelnを用いた損失関数の学習,学習継続のための学習損失関数の学習の2段階に分けた新しい機械学習パラダイムを提案する。
訳抜け防止モード: そこで本研究では,学習過程を2段階に分けた新しい機械学習パラダイムを提案する。 ELNを用いた損失関数学習 : 第2報 学習損失関数を用いた損失関数学習 学びを続けます
0.77
Experimental results are presented to demonstrate the desirable performance of the new method. 提案手法の望ましい性能を示す実験結果が提示された。 0.63
Index Terms—Supervised learning, error loss, error loss net- 索引項 -教師付き学習, エラー損失, エラー損失ネット- 0.73
works, radial basis functions. 放射基底関数が機能します 0.71
I. INTRODUCTION Machine learning aims to build a model based on training samples to predict the output of new samples. I 導入 機械学習は、トレーニングサンプルに基づいてモデルを構築し、新しいサンプルの出力を予測することを目的としている。 0.53
For supervised learning (see Fig 1), each training sample consists of a pair of data called respectively the input (typically a vector) and the desired output (also called the supervisory signal). 教師付き学習(図1参照)では、各トレーニングサンプルはそれぞれ入力(典型的にはベクトル)と所望の出力(監督信号とも呼ばれる)と呼ばれる一対のデータからなる。 0.83
Given training samples {(x1, d1) ,··· , (xN , dN )} with xi being the input vector and di the desired output, a supervised learning algorithm usually seeks a function (i.e. xiを入力ベクトルとし、所望の出力をダイする訓練サンプル {(x1, d1) ,··· , (xN , dN )} が与えられた場合、教師付き学習アルゴリズムは通常関数(すなわち関数)を求める。 0.84
the input-output mapper of the learning machine) f : X → Y where X denotes the input space and Y stands for the output space, such that an empirical loss (risk) is minimized, that is x が入力空間を表し、y が出力空間を表す f : x → y で、経験的損失(リスク)が最小となる。
訳抜け防止モード: Xが入力空間を表す学習機械 ) f : X → Y の入力-出力マッパー Y は出力空間を表します 経験的損失(リスク)は最小限に抑えられ、つまり
0.76
f∗ = arg min f∗ = arg min 0.98
f∈F フェーーーーーーーーーーーーーーーーーーーーーーーーー 0.07
1 N l (di, yi), 1N l (di, yi) 0.75
(1) N Xi=1 (1) N Xi=1 0.76
where F is some space of possible functions (usually called the hypothesis space), yi = f (xi) is the model (function) output, and l : Y × Y → R is a certain loss function that measures how well a function fits the training samples (In this work, the loss function is not limited to be nonnegative). F が可能な関数の空間(通常は仮説空間と呼ばれる)であり、yi = f (xi) はモデル(関数)の出力であり、l : Y × Y → R は、ある関数がトレーニングサンプルにどの程度うまく適合するかを測定する特定の損失関数である(この研究では、損失関数は非負に制限されない)。 0.90
In many cases, the loss function depends on the error sample ei = di − yi, namely the difference between the desired and the model output. 多くの場合、損失関数は誤差サンプル ei = di − yi、すなわち所望値とモデル出力の差に依存する。 0.70
In such conditions, we call it an error loss, denoted by l (ei). そのような条件下では、これを l (ei) で表される誤り損失と呼ぶ。 0.76
Some regularization terms are often incorporated into the loss function to prevent overfitting. いくつかの正規化項はオーバーフィッティングを防ぐためにしばしば損失関数に組み込まれている。 0.59
Badong Chen (corresponding author), Yunfei Zheng, and Pengju Ren are with the Institute of Artificial Intelligence and Robotics, Xi’an Jiaotong University, Xi’an 710049, China (e-mail: chenbd@mail.xjtu.edu .cn; zhengyf@stu.xjtu.edu .cn; pengjuren@gmail.com) . Badong Chen(共著者)、Yunfei Zheng、Pengju Renは、人工知能・ロボティクス研究所、Xi’an Jiaotong University、Xi’an 710049、中国(eメール:chenbd@mail.xjtu.ed u.cn; zhengyf@stu.xjtu.edu .cn; pengjuren@gmail.com) に在籍している。 0.75
This work was supported in part by the National Natural Science Foundation of China under Grant 61976175 and in part by the Key Project of Natural Science Basic Research Plan in Shaanxi Province of China under Grant 2019JZ-05. この研究は、Grant 6 1976175の中国自然科学財団(National Natural Science Foundation of China)と、Grant 2019JZ-05の中国シャー西省の自然科学基礎研究計画(Key Project of Natural Science Basic Research Plan)によって支援された。
訳抜け防止モード: この研究は、グラント6 1976175の下で中国自然科学財団が一部支援した。 そして一部は、Grant 2019JZ-05の下で、中国の山西省における自然科学基礎研究計画のキープロジェクトである。
0.71
However, in this study our focus is mainly on the error loss term. しかし,本研究では,主に誤差損失項に着目した。 0.77
input x i learning machine 入力 x 私は 学習機械 0.73
loss function  )i  loss (複数形 losss) 0.58
( L E l e =   (L E l e) =   0.89
desired id + output 欲しがる id + 出力 0.77
iy ∑ − error ie イイ ∑ − エラーie 0.73
Fig. 1. Schematic of supervised learning. フィギュア。 1. 教師付き学習の仕組み。 0.62
How to choose or design a proper error loss function is a key problem in supervised learning. 教師あり学習において、適切なエラー損失関数の選択や設計は重要な問題である。 0.70
The squared error loss (i.e. 2乗誤差損失(すなわち、誤差損失) 0.62
the mean square error (MSE)), in which , l (e) = e2 is one of the most widely used loss functions especially for regression problem because of its mathematical convenience and computational simplicity. 平均二乗誤差 (mse) は , l (e) = e2 が数学的な利便性と計算の単純さから回帰問題において最も広く使われる損失関数の1つである。 0.79
However, MSE cannot deal with non-Gaussian noise well, and particularly is sensitive to heavy-tailed outliers. しかし、MSEは非ガウスノイズにうまく対応できず、特に重く尾の外れ値に敏感である。 0.66
Many alternatives such as mean absolute error (MAE) [1], mean p-power error (MPE) [2]– [4], Huber’s loss [5], [6] and logarithmic loss [7]–[9], can thus be used to improve the robustness to outliers. mean absolute error (mae) [1], mean p-power error (mpe) [2]–[4], huber's loss [5], [6], logarithmic loss [7]–[9] といった多くの代替手段は、外れ値に対するロバスト性を改善するために使うことができる。 0.78
Over the past decade, some quantities (such as entropy) related to information theory have been successfully used as robust loss functions in machine learning, and such learning methods are called information theoretic learning (ITL) [10]. 過去10年間で、情報理論に関連するいくつかの量(エントロピーなど)が、機械学習におけるロバストな損失関数としてうまく利用され、そのような学習方法を情報理論学習(ITL) [10] と呼ぶ。 0.79
The minimum error entropy (MEE) [11], [12] and maximum correntropy criterion (MCC) [13] are two typical learning criteria in ITL. 最小誤差エントロピー (MEE) [11], [12], 最大コレントロピー基準 (MCC) [13] は、IPLの2つの典型的な学習基準である。 0.71
By Parzen window approach, the ITL loss functions can be estimated directly from the samples, and with a Gaussian kernel these loss functions can be viewed as a similarity measure in kernel space [10]. Parzenウインドウアプローチにより、IPL損失関数はサンプルから直接推定でき、ガウス核ではこれらの損失関数はカーネル空間 [10] における類似度尺度と見なすことができる。 0.82
Compared with other robust error loss functions, such as MAE and Huber’s loss, the ITL loss functions often show much better robustness to complex non-Gaussian noise (e g heavy-tailed, multimode distributed, discrete-valued, etc.). MAEやHuberの損失といった他のロバストなエラー損失関数と比較すると、IPL損失関数は複雑な非ガウス雑音(例えば、重み付き、多重モード分散、離散値等)に対してはるかに優れたロバスト性を示すことが多い。 0.73
Theoretical analysis of the robustness of the ITL can be found in [14]–[16]. itlのロバスト性に関する理論的解析は[14]–[16]で見ることができる。 0.71
In recent years, serval important variants or extended versions of the ITL learning criteria (loss functions) have been proposed to further enhance the robustness or improve the computational efficiency. 近年、ロバスト性の向上や計算効率の向上のために、itl学習基準(loss関数)のサーバルの重要な変種や拡張版が提案されている。 0.64
Examples are quantized minimum error entropy (QMEE) [17], generalized maximum correntropy criterion (GMCC) [18], maximum mixture correntropy criterion (MMCC) [19], [20], kernel risk-sensitive loss (KRSL) [21], kernel mean p-power error (KMPE) [22], maximum correntropy criterion with variable center (MCC-VC) [23], 例えば、量子化最小誤差エントロピー (qmee) [17], general maximum correntropy criterion (gmcc) [18], maximum mixed correntropy criterion (mmcc) [19], [20], kernel risk-sensitive loss (krsl) [21], kernel mean p-power error (kmpe) [22], maximum correntropy criterion with variable center (mcc-vc) [23] である。 0.78
英語(論文から抽出)日本語訳スコア
maximum multi-kernel correntropy criterion (MMKCC) [24], and so on. maximum multi-kernel correntropy criterion (MMKCC) [24]など。 0.72
These ITL loss functions have been successfully applied to robust regression, adaptive filtering, principal component analysis (PCA), point set registration, Granger causality analysis, etc. これらのitl損失関数はロバスト回帰、適応フィルタリング、主成分分析(pca)、ポイントセット登録、グレンジャー因果関係分析などにうまく適用されている。 0.69
[25]–[37]. [25]–[37]. 0.57
How to integrate these loss functions into a unified model is of great significance, but also a great challenge. これらの損失関数を統一モデルに統合する方法は、非常に重要であるが、大きな課題でもある。 0.68
In the present paper, we propose a novel model called error loss network (ELN) to build an error loss function for supervised learning. 本稿では,教師付き学習のための誤り損失関数を構築するための新しいモデルであるエラー損失ネットワーク(eln)を提案する。 0.85
The ELN is in structure similar to a radial basis function (RBF) neural network, but its input is an error sample and output is a loss corresponding to that error sample. ELNは、放射基底関数(RBF)ニューラルネットワークに似た構造であるが、その入力はエラーサンプルであり、出力はそのエラーサンプルに対応する損失である。 0.80
That means the nonlinear input-output mapper of ELN creates an error loss function. つまり、ELNの非線形入出力マッパーはエラー損失関数を生成する。 0.78
The proposed ELN provides a unified model for a large class of error loss functions, including the previously mentioned ITL loss functions as special cases. 提案されたelnは、前述した itl 損失関数を特別なケースとして含む、大規模なエラー損失関数の統一モデルを提供する。 0.73
The activation function, weight parameters and network size of the ELN can be predetermined or learned from the error samples. ELNの活性化関数、重みパラメータ、ネットワークサイズを、エラーサンプルから特定または学習することができる。 0.67
On this basis, we propose a new machine learning paradigm where the learning process is divided into two stages: first, learning a loss function using an ELN; second, using the learned loss function to continue to perform the learning. そこで本研究では,学習過程をelnを用いた損失関数の学習,学習継続のための学習損失関数の学習の2段階に分けた新しい機械学習パラダイムを提案する。
訳抜け防止モード: そこで本研究では,学習過程を2段階に分けた新しい機械学習パラダイムを提案する。 ELNを用いた損失関数学習 : 第2報 学習損失関数を用いた損失関数学習 学びを続けます
0.77
Moreover, we propose a probability density function (PDF) matching approach to train the ELN and a fixed-point iterative algorithm to train the learning machine with a linearin-parameter (LIP) model. さらに,elnを学習するための確率密度関数(pdf)マッチング手法と,リニアインパラメータ(lip)モデルを用いて学習機を訓練するための不動点反復アルゴリズムを提案する。 0.81
The rest of the paper is organized as follows. 残りの論文は以下の通り整理される。 0.66
In section II, we give the basic concept of ELN and discuss its relationship with ITL. 第2節では,ELNの基本概念とILLとの関係について論じる。 0.64
In section III, we propose an overall supervised learning strategy and discuss how to train the ELN and the learning machine. 第III節では、総合的な教師付き学習戦略を提案し、ELNと学習機械の学習方法について議論する。 0.68
Section IV presents the experimental results and finally, section V gives the concluding remarks. 第4節は実験結果を示し、最後に第5節は結論を与える。 0.51
A. Basic Concept II. A。 基本概念 II。 0.76
ERROR LOSS NETWORKS エラー損失ネットワーク 0.59
The error loss is generally a nonlinear function of the error sample (the difference between the desired and the model output), which has very important influence on the performance of supervised learning. 誤差損失は一般にエラーサンプルの非線形関数(所望の値とモデル出力の違い)であり、教師あり学習の性能に大きな影響を与える。 0.73
In most applications, such functions are predetermined by the algorithm designers based on experience or some prior knowledge. ほとんどのアプリケーションでは、そのような関数は経験や事前知識に基づいてアルゴリズム設計者によって規定される。 0.72
For example, one often chooses 例えば、しばしば選択する 0.67
l (e) = e2 for ordinary regression or l (e) = |e| for robust l (e) = e2 は通常の回帰、l (e) = |e| はロバストである 0.67
regression. In this work, we propose to build an error loss function in a manner similar to a RBF neural network, which can be trained from the data (not predetermined). 回帰 本研究では,RBFニューラルネットワークと同じような方法で誤り損失関数を構築することを提案する。
訳抜け防止モード: 回帰 本研究では,RBFニューラルネットワークと同じような方法で誤り損失関数を構築することを提案する。 データから(所定のものではなく)トレーニングすることができる。
0.58
Specifically, we propose a RBF like model called ELN, with error sample as the input and corresponding output as the loss (see Fig 2). 具体的には、エラーサンプルを入力とし、それに対応する出力を損失とするRBFライクモデルELNを提案する(図2参照)。 0.80
The nonlinear input-output mapper of ELN creates an error loss function l(. elnの非線形入出力マッパーはエラー損失関数l(.)を生成する。 0.74
). Let {φ1,··· , φM} be M radial basis functions (whose values depend only on the distances between the inputs and some fixed points) and θ = [θ1,··· , θM ]T be the output ). φ1,··· , φM {\displaystyle {φ1,···· , φM} を M 基関数(入力と固定点の間の距離のみに依存する値)とし、θ = [θ1,··· , θM ]T を出力とする。 0.84
weight vector. The output (error loss) of the ELN is a linear combination of the radial basis functions, given by 重量ベクトル。 ELNの出力(エラー損失)は、放射基底関数の線形結合である。 0.67
l (ei) = M Xj=1 l(ei) = M Xj=1 0.76
θjφj (ei). θjφj (ei)。 0.72
(2) error sample (2) error サンプル 0.82
ie 2 1φ 2φ … … 家 2 1φ 2φ … … 0.76
1Mφ − Mφ 1θ 1Mφ- Mφ 1θ 0.74
2θ 1Mθ − Mθ 2θ 1Mθ- Mθ 0.74
∑ error loss )i ∑ エラー損失(i) 0.85
l e ( l (複数形 ls) 0.40
Fig. 2. Schematic of error loss network. フィギュア。 2. エラー損失ネットワークの図式化。 0.69
Given N error samples {e1,··· , eN}, the empirical loss based on the ELN can thus be computed by したがって、N 個の誤差サンプル {e1,··· , eN} が与えられた場合、ELN に基づく経験的損失を計算できる。 0.79
L = 1 N N Xi=1 L = 1N N Xi=1 0.77
l (ei) = 1 N l(ei) = 1N 0.81
N M Xi=1 Xj=1 N M Xi=1 Xj=1 0.72
θjφj (ei). θjφj (ei)。 0.72
(3) The ELN model can be extended to other neural networks (e g Multilayer Perceptron), but this paper is concerned only with the RBF type network. (3) ELNモデルは他のニューラルネットワーク(例えばMultilayer Perceptron)にも拡張可能であるが,本論文はRBF型ネットワークのみに関係している。 0.86
It is worth noting that if the radial basis functions (e g Gaussian functions) satisfy: i) ∂ ∀e ∈ R, φj (e) ≤ bj, bj > 0; ii) ∂e φj (e) = 0, we have 半径基底函数 (e g Gaussian function) が、次のを満たすことに注意する必要がある: i) ・ ・e ∈ R, φj (e) ≤ bj, bj > 0; ii) ・e φj (e) = 0 である。 0.86
lim |e|→∞ M lim |e|→∞ M 0.68
|l(e)| ≤ lim |e|→∞ l(e)| ≤ lim |e|→∞ 0.77
Pj=1 |θj|bj Pj=1 |θj|bj 0.39
∂ ∂e l (e) = 0. ∂ ∂e l (e) = 0。 0.88
(4)   (4)   0.85
In this case, the error loss function l(e) is always bounded and its derivative will approach zero as |e| → ∞. この場合、誤差損失関数 l(e) は常に有界であり、その微分は |e| → ∞ として 0 に近づく。 0.78
That means the influence of an error with very large value on the loss function is very limited, because the loss at large error is bounded and the gradient of the loss function at large error is also very small. これは、大きな誤差での損失が有界であり、大きな誤差における損失関数の勾配も非常に小さいため、損失関数に対する非常に大きな値の誤差の影響が非常に小さいことを意味する。 0.83
Such loss function will be robust to outliers that usually cause large errors. このような損失関数は、通常大きなエラーを引き起こす外れ値に対して堅牢である。 0.67
Therefore, with an ELN one can easily obtain an error loss function robust to outliers by choose the radial basis functions satisfying the previous two conditions. したがって、ELNにより、前の2つの条件を満たす放射基底関数を選択することにより、外乱に頑健な誤差損失関数を容易に得ることができる。 0.65
This is a great advantage of the proposed ELN. これは提案されたELNの大きな利点である。 0.76
B. Relation to ITL B。 ITLとの関係 0.78
The ELN has close relationship with the celebrated ITL, initiated in the late 90s. ELNは90年代後半に始まった有名なILLと密接な関係にある。 0.69
Basically, ITL uses descriptors from information theory (e g entropy) estimated directly from the data to create the loss functions for machine learning. 基本的に、IDLはデータから直接推定される情報理論(例えばエントロピー)の記述子を使用して、機械学習の損失関数を生成する。 0.75
One of the most popular ITL learning criteria is the MEE, which adopts the error’s entropy as the loss for supervised learning (to say, the learning machine is trained such that the error entropy is minimized). 最も一般的なitl学習基準の1つは、エラーのエントロピーを教師付き学習の損失として採用するmeeである(例えば、エラーエントロピーを最小限に抑えるように学習マシンを訓練する)。 0.73
With Renyi’s quadratic entropy, the Renyiの二次エントロピーは、 0.45
英語(論文から抽出)日本語訳スコア
3 ERROR LOSS NETWORKS OF SEVERAL ITL LOSS FUNCTIONS. 3 いくつかのitl損失関数のエラー損失ネットワーク。 0.67
TABLE I Loss M テーブルI 損失 M 0.66
φi(i = 1, · · · , M ) φi(i = 1, · · · · , M ) 0.98
θi(i = 1, · · · , M ) θi(i = 1, · · · · , M ) 0.98
MCC [13] M = 1 MCC[13] M = 1 0.83
φ1(e) = Gσ(e) φ1(e) = Gσ(e) 0.98
GMCC [18] M = 1 GMCC[18] M = 1 0.84
φ1(e) = Gα,β(e) φ1(e) = Gα,β(e) 0.99
KRSL [21] M = 1 KRSL[21] M = 1 0.84
φ1(e) = exp (λ (1 − Gσ(e))) φ1(e) = exp (λ (1 − Gσ(e))) 0.94
KMPE [22] M = 1 KMPE [22] M = 1 0.85
φ1(e) = (1 − Gσ(e))p/2 φ1(e) = (1 − Gσ(e))p/2 0.93
MCC-VC [23] MCC-VC[23] 0.83
M = 1 φ1(e) = Gσ(e − c) M = 1 φ1(e) = Gσ(e − c) 0.92
θ1 = −1 θ1 = −1 θ1 = −1 θ1 = −1 0.78
θ1 = 1 λ θ1 = 1 θ1 = 1 λ θ1 = 1 0.96
θ1 = −1 MMCC [19] θ1 = −1 MMCC[19] 0.80
M = 2 φ1(e) = Gσ1 (e), φ2(e) = Gσ2 (e) M = 2 φ1(e) = Gσ1(e), φ2(e) = Gσ2(e) 0.89
θ1 = −α, θ2 = α − 1 θ1 = −α, θ2 = α − 1 0.90
MEE [11] M = N MEE[11] M = N 0.84
φi(e) = Gσ(e − ei) φi(e) = Gσ(e − ei) 0.99
QMEE [17] 1 ≤ M ≤ N QMEE [17] 1 ≤ M ≤ N 0.85
φi(e) = Gσ(e − ci) φi(e) = Gσ(e − ci) 0.99
MMKCC [24] M ≥ 2 MMKCC[24] M ≥ 2 0.84
φi(e) = Gσi (e − ci) φi(e) = Gσi (e − ci) 0.94
θi = −1 N θi = −Mi N θi = −1 N θi = −Mi N 0.84
θi = −λi empirical loss of MEE can be computed by [10]–[12] θi = −λi MEEの実証的損失は[10]–[12]で計算できる 0.68
L = − (ˆp(e))2de L = − (p(e))2de 0.88
+∞ +∞ Z−∞ Z−∞ +∞ +∞ Z−∞ Z−∞ 0.69
1 N 2 = − = − N PN 1N2 = − = −N PN 0.80
1 N N Xi=1 1 N N Xi=1 0.78
N Gσ (e − ei)!2 N Gσ (e − ei)! 0.79
Xi=1 Xj=1 G√2σ (ei − ej), Xi=1 Xj=1 G\2σ(ei − ej) 0.70
N de where ˆp(e)= 1 i=1 Gσ (e − ei) is the estimated PDF (by Parzen window approach [38]) of the error based on the N samples {e1,··· , eN}, and Gσ(e) is a Gaussian kernel controled by kernel width σ and can be expressed by N デ ここで、ep(e)= 1 i=1 Gσ (e − ei) は N 個のサンプル {e1,··· , eN} に基づいて誤差を推定した PDF (Parzen window approach [38]) であり、Gσ(e) は核幅 σ で制御され、表現できるガウス核である。 0.75
Gσ(e) = 1 √2πσ Gσ(e) = 1 √2πσ 0.77
exp(cid:18)− exp(cid:18)− 0.88
e2 2σ2(cid:19) . e2 2σ2(cid:19)である。 0.65
The above empirical loss can be rewritten as 上記の経験的損失は書き換えることができる 0.76
L = = 1 N 1 N L = = 1N 1N 0.82
N Xi=1 Xi=1 N Xi=1 Xi=1 0.68
N     N N     N 0.85
Xj=1 Xj=1 N Xj=1 Xj=1 N 0.68
−1 N G√2σ (ei − ej)  −1N 2σ (ei − ej) の意。 0.77
θjφj (ei) , θjφj (ei)。 0.76
where θj = − 1 N , φj (ei) = G√2σ (ei − ej). ここで θj = − 1 n , φj (ei) = g2σ (ei − ej) である。 0.80
Thus, the error loss function l(e) of MEE can be created by an ELN model with N hidden nodes φj (e) = G√2σ (e − ej) , j = 1,··· , N , and output weight vector θ =(cid:2)− 1 したがって、MEE の誤差損失関数 l(e) は N 個の隠れノード φj (e) = G\2σ (e − ej) , j = 1,··· , N と出力重みベクトル θ = (cid:2) − 1 の ELN モデルによって生成できる。 0.92
The network size of the ELN for MEE is equal to the sample number, which is very large for large scale data sets. MEEのELNのネットワークサイズはサンプル数と等しく、大規模なデータセットでは非常に大きい。
訳抜け防止モード: MEE用ELNのネットワークサイズはサンプル数に等しい。 これは大規模なデータセットにとって非常に大きなものです。
0.76
To reduce the computational complexity of MEE, the quantized MEE (QMEE) was proposed in [17]. MEEの計算複雑性を低減するため,[17]に量子化MEE(QMEE)を提案した。 0.83
Similar to the MEE, the QMEE loss can also be viewed as an ELN, but with network size M ≤ N in general. MEEと同様に、QMEE損失はELNと見なすこともできるが、一般にネットワークサイズは M ≤ N である。 0.72
The basic idea behind QMEE is actually QMEEの基本的な考え方は 0.74
N(cid:3)T N ,··· ,− 1 N(cid:3)T N ,··· ,− 1 0.85
. (5) (6) (7) . (5) (6) (7) 0.85
to merge several hidden nodes into one if their centers are very close. 隠れたノードを一つにマージします 彼らの中心が非常に近い場合は 0.60
Another popular learning criterion in ITL is the MCC, which is computationally much simpler than the MEE criterion (but the performance of MEE is usually better in the case of complex noise). ITLのもう1つの一般的な学習基準はMCCであり、これはMEE基準よりも計算的にはるかに単純である(ただし、MEEの性能は複雑なノイズの場合の方がよい)。 0.71
The empirical loss under MCC is [13] MCCによる経験的損失は[13] 0.77
L = − 1 N N L = − 1N N 0.83
Xi=1 Gσ (ei). Xi=1 Gσ (E)。 0.69
(8) There is a minus sign in the above formula because the loss is minimized. (8) 損失を最小限に抑えるため、上記の式にはマイナス符号がある。 0.83
One can see that the error loss function of MCC is l(e) = −Gσ(e) (sometimes l(e) = 1 − Gσ(e) is used to ensure the non-negativity of the loss function). MCC の誤差損失関数は l(e) = −Gσ(e) である(損失関数の非負性を保証するために l(e) = 1 − Gσ(e) が用いられることもある)。 0.86
Thus, the MCC loss function can be viewed as a special ELN with only one hidden node φ1(e) = Gσ(e) and corresponding output weight θ1 = −1. したがって、MCC損失関数は1つの隠れノード φ1(e) = Gσ(e) と対応する出力重量 θ1 = −1 を持つ特別なELNとみなすことができる。 0.82
Recently, in order to further improve the learning performance, the MCC loss function has been extended to nonGaussian kernel functions (e g GMCC [18], KRSL [21], KMPE [22]) or multi-kernel functions (e g MMCC [19], [20], MMKCC [24]). 近年、学習性能をさらに向上するため、MCC損失関数は非ガウスカーネル関数(例えば GMCC [18], KRSL [21], KMPE [22])やマルチカーネル関数(例えば MMCC [19], [20], MMKCC [24])に拡張されている。 0.70
In fact, all these loss functions can be integrated into a unified model, the ELN. 実際、これらの損失関数はすべて、統一モデルであるelnに統合することができる。 0.65
The network size, radial basis functions and output weights of the ELNs for several ITL loss functions are summarized in Table I. いくつかのitl損失関数に対するネットワークサイズ、ラジアル基底関数、およびelnの出力重みをテーブルiにまとめる。 0.69
III. SUPERVISED LEARNING WITH ELNS III。 エルンを用いた上級学習 0.60
A. Overall Learning Strategy A。 総合的な学習戦略 0.73
When applying the ELN to supervised learning, before training the learning machine one must have an ELN available. ELNを教師あり学習に適用する際には、学習機械をトレーニングする前にELNを利用できなければならない。 0.68
To this end, one can predetermine an ELN (e g assign an existing ITL loss function) or use the training data to train an ELN. これにより、ELN(例えば既存のILL損失関数を割り当てる)を事前決定したり、トレーニングデータを使用してELNをトレーニングすることができる。 0.71
In this study, we mainly consider the second case, i.e. 本研究では,第2の症例,すなわち,第2の事例について考察する。 0.56
training an ELN to obtain a data-driven loss function for supervised learning. elnをトレーニングして教師付き学習のためのデータ駆動損失関数を得る。 0.62
In this case, the whole learning process consists of two sub-learning processes, i.e., training the ELN and training the learning machine (see Fig 3 for the general schematic). この場合、学習プロセス全体は、elnのトレーニングと学習マシンのトレーニングという2つのサブラーニングプロセスで構成されている(一般的な図式は図3を参照)。 0.76
英語(論文から抽出)日本語訳スコア
input x i learning machine 入力 x 私は 学習機械 0.73
desired id + output 欲しがる id + 出力 0.77
iy ∑ − ELN イイ ∑ − ELN 0.79
… ∑ error e i … ∑ error 私は 0.76
= d i − y i = d 私は − 私は 0.73
Fig. 3. Supervised learning with ELN. フィギュア。 3. elnによる教師付き学習。 0.60
The two sub-learning processes in Fig 3 are interdependent, that is, training the ELN depends on the error samples from the trained learning machine; training the learning machine depends on the loss function from the trained ELN. 図3の2つのサブラーニングプロセスは相互依存的であり、すなわち、ELNのトレーニングは、トレーニングされた学習マシンのエラーサンプルに依存する。
訳抜け防止モード: 図3の2つのサブ学習プロセスは相互依存的である。 つまり 訓練は ELNは、訓練された学習マシンのエラーサンプルに依存する。 学習機械の訓練は、訓練されたELNからの損失関数に依存する。
0.71
How to combine the two sub-learning processes to form a complete learning process is a key problem. 2つのサブラーニングプロセスを組み合わせて完全なラーニングプロセスを作る方法が重要な問題である。
訳抜け防止モード: 2つのサブ学習プロセスを組み合わせて完全な学習プロセスを作る方法 重要な問題です
0.83
To solve this problem, we first assume that the initial error samples over the training data set have been obtained with a predetermined loss function, and then perform the following two sub-learning processes: first, using the available error samples to train an ELN and obtain an updated error loss function; second, using the updated loss function to continually train the learning machine. この問題を解決するために、まず、トレーニングデータセット上の初期エラーサンプルが所定の損失関数で得られたと仮定し、次に、利用可能なエラーサンプルを使用してELNをトレーニングし、更新されたエラー損失関数を取得し、次に、更新された損失関数を使用して学習機械を継続的に訓練する2つのサブラーニングプロセスを実行する。 0.73
The two processes can form a cycle, whose schematic is shown in Fig. 2つのプロセスはサイクルを形成し、その図式は図示で示される。 0.75
4. predetermined loss train the learning machine 4. 所定の損失 学習機械を訓練し 0.79
error samples train the ELN エラーサンプル ELN のトレーニング 0.71
updated loss Fig. 更新された損失 フィギュア。 0.46
4. Schematic of the two-stage learning with ELN. 4. ELNを用いた二段階学習の体系化 0.80
B. Training the ELN The proposed ELN model consists of two key parts. B。 ELNの教育 提案するelnモデルは2つの重要な部分からなる。 0.65
The first is the weight vector θ = [θ1,··· , θM ]T and the second is M radial basis functions {φ1,··· , φM}. 第一はウェイトベクトル θ = [θ1,·· , θM ]T であり、第二は M 半径基底関数 {φ1,··· , φM} である。 0.61
In this subsection, we discuss how to use the error samples to train the ELN model. 本稿では,エラーサンプルを用いてELNモデルのトレーニングを行う方法について論じる。 0.82
1) Determine the Weight Vector θ: Suppose we have obtained N error samples {e1,··· , eN} from the first stage learning. 1) 重みベクトル θ を決定する: 第一段階学習から N 個の誤差サンプル {e1,··· , eN} を得たと仮定する。 0.88
To simplify the discussion, we assume that M hidden nodes (radial basis functions) have already been determined (we will discuss this issue later), and we only need to learn この議論を単純化するために、M隠れノード(放射基底関数)が既に決定されていると仮定する(後述する)。
訳抜け防止モード: 議論を単純化する。 M 隠れノード (放射基底関数) が既に決定されていると仮定する。 後ほどこの問題について論じます) 学ぶ必要があるのは
0.68
4 the output weight vector θ = [θ1,··· , θM ]T . 4 出力重みベクトル θ = [θ1,··· , θm ]t である。 0.85
The key problem now is how to design an objective function to solve the weight vector θ. 鍵となる問題は さて、重みベクトル θ を解くために目的関数を設計する方法である。 0.74
In this work, we adopt the idea of PDF matching to construct the objective function. 本研究では,目的関数を構成するためにPDFマッチングという概念を採用する。 0.75
Such idea has been widely applied in ITL [10]. このような考え方は ITL [10] で広く適用されています。 0.64
Specifically, we propose to learn the weight vector θ such that the input-output mapper of the ELN (i.e. 具体的には、ELNの入出力マッパー(すなわち、重みベクトルθ)を学習することを提案する。 0.72
the error loss function l(e)) is as close as possible to the error’s negative PDF −p(e). エラー損失関数 l(e)) は、エラーの負のPDF −p(e) に可能な限り近い。 0.73
To explain why we solve θ in this way, here we give some explanation. θ をこのように解く理由を説明するために、ここでいくつかの説明をする。 0.71
Fig 5 illustrates an error’s PDF (solid) and negative PDF (dotted). 図5はエラーのPDF (solid) と負のPDF (dotted) を示しています。 0.86
If the error loss function is close to the negative PDF −p(e), it will assign small valued loss to the error with high probability density and large valued loss to the error with low probability density. 誤差損失関数が負のPDF −p(e) に近い場合、確率密度の高い誤差に小さな値損失を割り当て、確率密度の低い誤差に大きな値損失を割り当てる。
訳抜け防止モード: 誤差損失関数が負のpdf −p(e) に近い場合 また,確率密度の低い誤差に対して,確率密度の高い誤差に対して小さい値損失と大きな値損失を割り当てる。
0.80
This is in fact very reasonable because the errors at high probability density regions are usually normal errors (we always assume that the normal error is the majority), while the errors at low probability density regions are usually abnormal errors (e g errors caused by outliers). これは、高確率密度領域の誤差が通常正規誤差である(通常誤差が多数であると仮定する)のに対して、低確率密度領域の誤差は通常異常エラーである(例えば、外れ値によるエラー)ため、非常に合理的である。 0.88
p(e) 0 PDF p(e) 0 PDF 0.85
negative PDF negative PDF 0.85
assign small valued loss to the error with high probability density 確率密度の高い誤差に小さい値の損失を割り当てる 0.83
Fig. 5. Error’s PDF and negative PDF. フィギュア。 5. errorのpdfと負のpdfです。 0.68
Based on the above discussion, we propose to minimize the 以上の議論に基づき、最小化を提案する。 0.73
following objective function to solve the weight vector θ: 重みベクトル θ を解くための次の目的関数 0.75
J = (l(e) + p(e))2de J = (l(e) + p(e))2de 0.88
l2(e)de+2E [l(e)] + l2(e)de+2E [l(e)] + 0.96
p2(e)de (9) p2(e)de (9) 0.92
θjφj (e)!2 θj φj (e)! 0.76
+∞ R−∞ de+2E" M Pj=1 +∞ R−∞ de+2E" M Pj=1 0.66
θjφj (e)# + θjφj (e)# + 0.82
+∞ R−∞ p2(e)de, +∞ R−∞ p2(e)de 0.71
+∞ +∞ R−∞ R−∞ R−∞ M Pj=1 +∞ +∞ R−∞ R−∞ R−∞ M Pj=1 0.69
+∞ = = where E [.] +∞ = = E (複数形 Es) 0.72
+∞ R−∞ is the expectation operator. +∞ R−∞ 期待演算子です。 0.64
Since the term p2(e)de is independent of θ, we have 用語から p2(e)de は θ とは独立で、 0.66
θ∗ = arg min θ∗ = arg min 0.98
= arg min +∞ =arg min +∞ 0.76
θjφj (e)!2 θj φj (e)! 0.76
de+2E" M Pj=1 de+2E"M Pj=1 0.58
θ∈RM  R−∞ M Pj=1  θ∈RM nθT Kθ+2θT ξo , an M × M matrix with Kij estimated the M × M 行列 θ × M 行列 θ ∞ M Pj=1 , θ ∞ M Pj=1 , Kθ+2θT 0.65
(10) = φi (e) φj (e) de, and ξ = [E [φ1 (e)] ,··· , E [φM (e)]]T . (10) = φi (e) φj (e) de で、かつ φ = [E [φ1 (e)] ,··· , E [φM (e)]]T である。 0.84
N PN θjφj (e)#  N PN θjφj (e)#? 0.79
i=1 φM (ei)iT i=1φM(ei)iT 0.80
i=1 φ1 (ei),··· , 1 i=1 φ1 (ei),··· , 1 0.94
N PN . Particularly, N PN . 特に。 0.79
vector ξ can vector ξ できる 0.81
be by practice, Be ところで 練習だ 0.61
−∞ In R +∞ ˆξ = h 1 -∞ in R +∞ > = h 1 0.85
where K is k がどこにあるか 0.55
英語(論文から抽出)日本語訳スコア
the M radial basis if Gaussian kernel c1, c2, ..., cM and respectively, m のラジアル基底 ガウス核 c1, c2, ..., cm, そしてそれぞれ 0.63
functions are assumed to be their being being σ1, σ2, ..., σM , the vector ξ can be further calculated by 関数は σ1, σ2, ..., σM であると仮定されるので、ベクトル σ はさらに計算できる。 0.77
functions with kernel widths カーネル幅を持つ関数 0.78
centers ˆξ = h 1 N PN and Kij has the form of Kij = G√σi one can obtain the following solution: 中心 y = h 1 N PN かつ Kij は Kij = G σi の形式を持ち、次の解が得られる。 0.73
i=1 Gσ1 (ei − c1),··· , 1 i=1 Gσ1 (ei − c1),··· , 1 0.94
N PN i=1 GσM (ei − cM )iT 2(ci − cj). N PN i=1 GσM (ei − cM )iT 2(ci − cj)。 0.86
Thus, 2+σj したがって 2+σj 0.59
θ∗ = −(K + γ1 I)−1ˆξ, θ∗ = −(K + γ1 I)−1 , 0.88
(11) where γ1 ≥ 0 is a regularization parameter to avoid the numerical problem in matrix inversion. (11) ここで γ1 ≥ 0 は行列反転の数値問題を避けるための正規化パラメータである。 0.82
2) Determine the M Radial Basis Functions: There are many types of radial basis functions can be selected to construct the ELN model, such as the popular Gaussian kernel and the Laplacian kernel [39]. 2) Mラジカル基底関数を決定する: 一般的なガウスカーネルやラプラシアカーネル[39]のようなELNモデルを構築するために、多くの種類の放射基底関数を選択することができる。 0.81
In the following, the Gaussian kernel will be a default choice to construct the hidden nodes of ELN due to its simplicity in numerical calculations; however one should note that φi, i = 1, 2,···, M in the ELN model can be selected differently at different nodes to get a better performance. 以下に示すように、ガウス核は数値計算の単純さからELNの隠れノードを構築するためのデフォルトの選択となるが、ELNモデルにおけるφi, i = 1, 2,···, M は異なるノードで異なる選択を行い、より良い性能が得られることに注意する必要がある。 0.85
Following the idea of [40] and [41], when the Gaussian kernel is adopted to construct an RBF network, the centers of M radial basis functions can be directly selected from training samples. 40]と[41]のアイデアに従うと、ガウス核がRBFネットワークを構築するために採用されると、トレーニングサンプルから直接M半径基底関数の中心を選択することができる。 0.81
Since the proposed ELN shares a similar structure to the traditional RBF neural network, such idea is, of course, suitable to ELN. 提案した ELN は従来の RBF ニューラルネットワークと類似した構造を持っているため、もちろん、この考え方は ELN に適している。 0.78
Therefore, φi(e) can be expresssed by したがって、φi(e) は表現できる。 0.80
φi(e) = 1 √2πσ φi(e) = 1 √2πσ 0.77
exp(cid:18)−(e − ci)2 exp(cid:18)−(e − ci)2 0.99
2 (cid:19) , i = 1, 2,···, M, 2 (cid:19) , i = 1, 2,···, M。 0.82
2σi (12) where ci is the center of the i-th Gaussian kernel, and σi is the related kernel width. 2σi (12) ci は i 番目のガウス核の中心であり、σi は関連するカーネル幅である。 0.74
In practice, the selection of {c1,··· , cM} does not have to be limited to a fixed manner. 実際には、c1,··· , cM} の選択は固定的な方法に制限される必要はない。 0.73
For instance, when the number of error samples obtained in the first stage learning is very limited, all the error samples can be selected to construct the ELN model, and when the number of available error samples is very large, the random sampling technology [42], the k-means clustering technology [43], and the probability density rank-based quantization technology [44] can be good candidates. 例えば、第1段階学習で得られた誤差サンプルの数が非常に限られている場合には、ELNモデルを構築するために全てのエラーサンプルを選択し、利用可能なエラーサンプルの数が非常に大きい場合には、ランダムサンプリング技術[42]、k平均クラスタリング技術[43]、確率密度ランクに基づく量子化技術[44]が良い候補となる。 0.82
In addition, following the idea of randomized learning machines [45]–[47], it can be promising to generate {c1,··· , cM} in a completely random way that is independent of the error samples. さらに、[45]–[47]のランダム化学習マシンのアイデアに従えば、エラーサンプルとは独立な完全にランダムな方法で {c1,··· , cM} を生成することを約束できる。 0.68
Once {c1,··· , cM} are determined, the related M kernel widths {σ1,··· , σM} should also be properly selected. c1,··· , cM} が決定されると、関連するM核幅 {σ1,··· , σM} も適切に選択される。 0.81
A simple but useful way to select these kernel widths is to set all kernel widths to the same value, i. e., σ1 = σ2 = ··· = σM = σ, and then searching σ in a predefined candidate set via crossvalidation or other methods. これらのカーネル幅を選択する簡単な方法として、すべてのカーネル幅を同じ値、すなわち σ1 = σ2 = ·· = σM = σ に設定し、次にクロスバリデーションや他の方法によって事前に定義された候補集合で σ を探索する。 0.72
However, since it is difficult to list the potential values of the kernel width exhaustively, the final selected σ may not be the desired one. しかし、カーネル幅のポテンシャル値を網羅的にリストアップすることは困難であるため、最終的な選択されたσは望ましいものではないかもしれない。
訳抜け防止モード: しかし、カーネル幅のポテンシャル値を徹底的にリストするのは難しい。 最終的な選択された σ は所望の 1 ではない。
0.70
To alleviate this issue, we propose to set kernel widths in the manner of この問題を軽減するため,我々はカーネル幅を設定する手法を提案する。 0.78
function designed to ensure the non-negativity of each kernel width. 各カーネル幅の非ネガティビティを保証するように設計された関数。 0.62
Without loss of generality, “max” is formulated by 一般性を失うことなく「最大」は定式化される 0.74
max(x, y) =(cid:26) x, max(x, y) =(cid:26) x, 0.98
y, if x >= y otherwise. y! x >= y でなければ。 0.73
(14) C. Training the Learning Machine (14) C.学習機械の訓練 0.89
5 Now we get into the second stage of the learning, i.e. 5 さて、私たちは学習の第2段階に入ります。 0.80
training the learning machine using the obtained error loss θ∗j φj (e). 得られた誤差損失 θ∗j φj (e) を用いて学習機械を訓練する。 0.72
For a general case, the input- 一般的な場合、入力は- 0.77
function l(e) = M 関数 l(e) = M 0.82
output mapper of the learning machine can be denoted by 学習機の出力マッパーは、 0.43
yi = f (xi, β), where β = [β1,··· , βK]T ∈ RK is a K- yi = f (xi, β) ここで β = [β1,·· , βK]T ∈ RK は K である。 0.90
dimensional weight vector to be learned. 学習すべき次元の重みベクトル。 0.74
In this case, the training of the learning machine can be formulated as the following optimization: この場合、学習機のトレーニングを次の最適化として定式化することができる。 0.78
Pj=1 β∗ = arg min β∈RK Pj=1 β∗ = arg min β∂RK 0.65
L(β) = arg min L(β) =arg min 0.80
β∈RK   1 N N β・RK。 1N N 0.76
M Xi=1 Xj=1 M Xi=1 Xj=1 0.68
θ∗j φj (ei) + θ∗j φj (ei) + 0.82
(15) γ2 2 kβk2  i=1PM (15) γ2 2kβk2> > i=1PM 0.69
γ2 N PN where ei = di−f (xi, β), L(β) = 1 j=1 θ∗j φj (ei)+ 2 kβk2, and γ2 ≥ 0 is a regularization parameter. γ2 N PN ei = di-f (xi, β), l(β) = 1 j=1 θ∗j φj (ei)+ 2 kβk2, γ2 ≥ 0 は正規化パラメータである。 0.82
The above optimization problem is in general nonconvex and there is no closed-form solution. 上記 最適化問題は一般に非凸であり、閉形式解はない。 0.62
One can, however, use a gradient based method to search the solution. しかし、勾配に基づく方法を使って解を探索することができる。 0.64
Below we show that if the mapper yi = f (xi, β) is an LIP model (such as the Gaussian kernel model [40], functional link neural network [45], extreme leaning machine [46], broad learning system [47], etc. 以下では、マッパー yi = f (xi, β) がリップモデル(ガウス核モデル [40],関数リンクニューラルネットワーク [45],極端な傾きマシン [46],広義学習システム [47] など)であることを示す。 0.73
), an efficient fixed-point iterative algorithm is available to solve the solution. この問題を解決するために,効率的な固定点反復アルゴリズムが利用可能である。 0.60
Consider an LIP model whose output is computed by 出力が計算されるLIPモデルを考える 0.76
yi = hiβ = [ϕ1(xi), ϕ2(xi),··· , ϕK(xi)] [β1, β2,··· , βK]T yi = hiβ = [φ1(xi), φ2(xi),··· , φK(xi)] [β1, β2,··· , βK]T 0.91
(16) where hi = [ϕ1(xi), ϕ2(xi),··· , ϕK(xi)] ∈ RK is the nonlinearly mapped input vector (a row vector), with ϕk(.) (16) ここで、 Hi = [φ1(xi), φ2(xi),··· , φK(xi)] ∈ RK は φk() を持つ非線形に写像された入力ベクトル(行ベクトル)である。 0.89
being the k-th nonlinear mapping function (k = 1, 2,··· , K). k 番目の非線形写像関数である(k = 1, 2,··· , K)。 0.80
Let ∂L(β)/∂β = 0 and φj (ei) = Gσj (ei − cj), we have ∂L(β)/∂β = 0 と φj (ei) = Gσj (ei − cj) とする。 0.88
θ∗ j σ2 j θ∗ j σ2 j θ∗ j σ2 j θ∗ j σ2 j 0.84
1 N ⇔ ⇔ N M 1N ⇔ ⇔ N M 0.84
N M Pi=1 Pj=1 Pj=1 Pi=1 Pi=1 N M Pi=1 Pj=1 Pj=1 Pi=1 Pi=1 0.71
N ′ ψ(ei)dihT N ′ ψ(ei)diht 0.81
i − Pi=1 Gσj (ei−cj) (ei−cj) hT Gσj (ei−cj) (di−hiβ−cj) hT ψ(ei)hT i i − Pi=1 gσj (ei−cj) (ei−cj) ht gσj (ei−cj) (di−hiβ−cj) ht ψ(ei)ht i 0.70
ξ(ei)hT i = シュ(エイ)hT i = 0.74
N N i +γ2β = 0 N N i +γ2β = 0 0.81
where γ 2 = N γ2 , ψ(ei) = γは 2 = N γ2 , s(ei) = 0.78
′ hiβ−γ Pi=1 Gσj (ei − cj), and ξ(ei) = ′ ハイβ−γ Pi=1 Gσj (ei − cj) と s(ei) = 0.74
2 β, θ∗ j σ2 j 2 β, θ∗ j σ2 j 0.85
M Pj=1 i +γ M Pj=1 i +γ 0.77
′ 2 β = 0 (17) ′ 2 β = 0 (17) 0.85
cj θ∗ j σ2 j cj θ∗ j σ2 j 0.88
M Pj=1 Gσj (ei − cj). M Pj=1 Gσj (ei − cj)。 0.77
From (17), one can obtain that 17から)それを得ることができる 0.69
β = R(β)−1p(β), β = R(β)−1p(β) 0.91
(18) σi = max(σ + ni, ǫ), i = 1, 2,···, M, (18) σi = max(σ + ni, ), i = 1, 2,···, M, 0.79
(13) with N where σ is a reference value for all kernel widths, ni is a small perturbation term which is assumed to be drawn from Gaussian distribution with zero-mean and variance ǫ, and “max” is a (13) と N σ がすべての核幅の基準値であるとき、ni は零平均と分散 s のガウス分布から引き出されると仮定される小さな摂動項であり、"max" は a である。 0.78
R(β) = ψ(ei)hT i R(β) = ψ(ei)ht i 0.80
Xi=1 = HT ΛH − γ′2 Xi=1 = HT >H − γ′2 0.67
hi − γ′2 I, hi − γ′2 I, 0.88
I (19) 私 (19) 0.80
英語(論文から抽出)日本語訳スコア
p(β) = ψ(ei)dihT p(β) = ψ(ei)diht 0.79
Xi=1 i − = HT Λd − HT ϑ. T ,··· , hN T , h2 Xi=1 i − = HT > d − HT θ. T ,·· , hN T , h2 0.95
N Xi=1 ξ(ei)hT i N Xi=1 ~(ei)ht i 0.69
(20) and N (20) そして N 0.81
T ]T , d = [d1, d2,··· , dN ]T , where H = [h1 ϑ = [ξ(e1), ξ(e2),··· , ξ(eN )]T , and Λ is a diagonal matrix with entries Λi,i = ψ(ei), i = 1, 2,··· , N . T ]T , d = [d1, d2,·· , dN ]T , ここで H = [h1 θ = [s(e1), s(e2),·· , s(eN )]T であり、i = 1, 2,··· , N が入射する対角行列である。
訳抜け防止モード: T ] T, d = [ d1, d2, · · · dN ] T, ここで H = [ h1 θ = [ >(e1 ) ~(e2 ), · · ·, ~(eN ) ] T, と は対角行列で、成分は yi, i = y(ei) である。 i = 1, 2, · · · ·, N である。
0.88
It should be noted that both R(β) and p(β) in (18) are the functions of β, and hence it is actually a fixed-point equation that can be described by 注意すべきは、18) における r(β) と p(β) はどちらも β の関数であり、従ってそれは実際に記述できる不動点方程式である。 0.83
with β = fF P (β), と β = fF P(β) 0.67
fF P (β) = R(β)−1p(β). fF P (β) = R(β)−1p(β)。 0.89
(21) (22) Such fixed-point equation can be solved by the popular fixedpoint iterative method [48]–[50] and the details are shown in Algorithm 1. (21) (22) このような不動点方程式は一般的な不動点反復法[48]–[50]によって解くことができ、詳細はアルゴリズム1で示される。 0.78
Algorithm 1: Fixed-point Iterative Algorithm with ELN アルゴリズム1:ELNを用いた固定点反復アルゴリズム 0.73
Input: training set {xi, yi}N Output: weight vector β. 入力: training set {xi, yi}N output: weight vector β。 0.77
i=1. 1. Parameters setting: number of radial basis functions : M ; reference value for all kernel widths: σ; variance of perturbation term: ǫ; regularization parameters: γ1, γ′2; maximum number of iterations: T ; tolerance: τ . i=1。 1. パラメータ設定: 放射基底関数の個数: M ; 全てのカーネル幅に対する基準値: σ; 摂動項の分散: σ; 正規化パラメータ: γ1, γ′2; イテレーションの最大数: T ; 耐性: τ 。 0.79
2. Initialization: set β(0) = 0 and the M kernel widths following (14); meanwhile, construct hi following a known LIP model. 2. 初期化: β(0) = 0 と m のカーネル幅を (14) とすると、hi は既知のリップモデルに従って構成される。 0.80
3. for t = 1, ..., T do 4. 3. t = 1, ..., T は 4 である。 0.84
Compute the outputs: yi = hiβ(t−1), i = 1, 2,···, N Compute the errors: ei = di − yi, i = 1, 2,···, N Compute θ: θ∗ = −(K + γ1 I)−1ˆξ Compute ϑ: ϑ = [ξ(e1), ξ(e2),··· , ξ(eN )]T Compute Λ: Λi,i = ψ(ei), i = 1, 2,··· , N 出力を計算する: yi = hiβ(t−1), i = 1, 2,····, n エラーを計算する: ei = di − yi, i = 1, 2,···, n 計算 θ: θ∗ = −(k + γ1 i)−1 計算 θ: θ = [s(e1), s(e2),···· , s(en )]t 計算 λ: λi,i = ψ(ei), i = 1, 2,···· , n 計算 λ: λi,i = i = 1, 2,···· , n 0.83
8. 9. Update β: β(t) = f (β(t − 1)) 10. 8. 9. β(t) = f(β(t − 1)) 10 を更新する。 0.83
Until kβ(t)−β(t − 1)k2/kβ(t − 1)k2 < τ . kβ(t)−β(t − 1)k2/kβ(t − 1)k2 < τ まで。 0.81
5. 6. 7. 11. end for 5. 6. 7. 11. 終了 0.82
IV. EXPERIMENTAL RESULTS In this section, we present experimental results to demonstrate the performance of the proposed method. IV。 実験結果 本稿では,提案手法の性能を示す実験結果を示す。 0.68
Except mentioned otherwise, all results are obtained using MATLAB (R2016b) on a machine equipped with Intel Xeon E3-1505M V6 CPU and 16-GB RAM. それ以外はすべて、Intel Xeon E3-1505M V6 CPUと16GB RAMを搭載したマシン上でMATLAB (R2016b) を用いて得られる。 0.72
A. Linear Regression To test the performance of the proposed method in the scanerio of linear regression, the weight vector of a linear system is assumed to be β∗ = [2, 1]T , and the input vectors xi, i = 1, 2,··· , N of the system are assumed to be uniformly A。 線形回帰 線形回帰の走査における提案手法の性能をテストするため、線形系の重みベクトルは β∗ = [2, 1]T と仮定し、入力ベクトル xi, i = 1, 2,··· , N は一様であると仮定する。
訳抜け防止モード: A。 線形回帰 線形回帰法(scanerio of linear regression)における提案手法の性能をテストする。 線形系の重みベクトルは β∗ であると仮定される = [ 2, 1]t と入力ベクトル xi, i = 1 , 2 , · · · · , n の系は一様であると仮定する。
0.76
6 distributed over [−2, 2] × [−2, 2]. 6 は [−2, 2] × [−2, 2] に分散する。 0.86
Hence, the system outputs that are not contaminated by noise can be expressed by したがって、ノイズによって汚染されていない出力を表現できる。 0.77
yi = β∗T xi, i = 1, 2,··· , N. yi = β∗T xi, i = 1, 2,··· , N。 0.89
(23) Without loss of generality, an additional interference sequence is then added to the system outputs to model the effect of noise and outliers, i. e., (23) 一般性を失うことなく、付加的な干渉シーケンスがシステム出力に追加され、ノイズと外れ値の影響をモデル化する。 0.79
di = yi + vi, i = 1, 2,··· , N di = yi + vi, i = 1, 2,··· , N 0.80
(24) where di is the noisy (real) observation of the i-th output of the system. (24) ここで di はシステムの i 番目の出力のノイズ(実)観測である。 0.82
Our goal is to find the weight vector of the system just based on N pairs of observed samples {(xi, dN ),··· , (xi, dN )}. 我々の目標は、観測されたサンプル {(xi, dn ),···· , (xi, dn )} の n 対に基づいて、システムの重みベクトルを見つけることである。 0.80
In the following experiments, N is set to 500, and the interference sequence vi, i = 1, 2,··· , N is formulated by 次の実験では、N は 500 に設定され、干渉列 vi, i = 1, 2,··· , N は定式化される。 0.78
vi = (1 − ηi)Ai + ηiBi, i = 1, 2,··· , N vi = (1 − ηi)Ai + ηiBi, i = 1, 2,··· , N 0.89
(25) where ηi is a binary variable with probability mass P r(ηi = 1) = p and P r(ηi = 0) = 1 − p; Ai and Bi are two the inner noise and outliers, respecprocesses to model tively. (25) ηi は確率質量 P r(ηi = 1) = p と P r(ηi = 0) = 1 − p を持つ二項変数である。
訳抜け防止モード: (25) ここで ηi は確率質量 P r(ηi = 1 ) = p のバイナリ変数である そして P r(ηi = 0 ) = 1 − p ; AiとBiは内音と外音の2つであり、微妙にモデル化するために再処理される。
0.81
Specifically, we set p = 0.1, and set Bi to be a Gaussian process with zero-mean and variance 100. 具体的には、p = 0.1 とし、Bi を 0 平均と分散100 のガウス過程とする。 0.74
For the distribution of Ai, four cases are considered: 1) symmetric Gaussian mixture density: 1/2N (−5, 0.1) + 1/2N (5, 0.1), where N (µ, δ) denotes a Gaussian density function with mean µ and variance δ; 2) asymmetric Gaussian mixture density: 1/3N (−3, 0.1) + 2/3N (5, 0.1); 3) single Gaussian density: N (0, 0.1); 4) uniform distribution over [0, 1]. 対称ガウス混合密度: 1/2n (−5, 0.1) + 1/2n (5, 0.1) ここで n (μ, δ) は平均 μ と分散 δ を持つガウス密度関数を表す; 2) 非対称ガウス混合密度: 1/3n (−3, 0.1) + 2/3n (5, 0.1); 3) 単一のガウス密度: n (0, 0.1); 4) 一様分布 [0, 1] 上の一様分布である。 0.87
To measure the performance of the proposed method in the scanerio of linear system identification, the root mean square deviation (RMSD) is defined by 線形システム同定の走査における提案手法の性能を測定するために、根平均平方偏差(RMSD)を定義する。 0.75
RMSD =r 1 2k ˆβ − β∗k2 RMSD =r 1 2k-β-β∗k2 0.75
(26) where ˆβ is the estimate of β∗. (26) ここで、β は β∗ の見積もりである。 0.74
1) Performance Comparison of Different Methods: In Table II, we show the performance comparison of ELN with MSE, MCC, MMCC, MCC-VC, GMCC, KRSL, KMPE, and QMEE. 1) 異なる手法の性能比較:表IIでは,ELN と MSE, MCC, MMCC, MCC-VC, GMCC, KRSL, KMPE, QMEE を比較した。 0.75
Herein, both the random sampling technology [42] and the probability density rank-based quantization technology [44] are considered to generate the centers of the ELN model. ここでは、ランダムサンプリング技術[42]と確率密度ランクに基づく量子化技術[44]の両方が、ELNモデルの中心となるものとみなす。 0.81
For the convenience of distinction, they are marked as ELN1 and ELN2, respectively. 区別の便宜のために、それぞれELN1とELN2とマークされる。 0.67
To guarantee a fair compairison, the parameters for each method are chosen by performing a grid search and measuring performance by an additional stratified ten-fold cross validation on the training data1. 公正な補償を保証するため、トレーニングデータ1に付加された10倍のクロスバリデーションによりグリッド探索を行い、測定性能を計測することにより、各手法のパラメータを選択する。 0.67
In detail, the parameter search ranges of different methods are as follows. 詳細は、異なる手法のパラメータ探索範囲は以下の通りである。 0.81
• For MSE, the regularization parameter is searched from •mseの場合、正規化パラメータは検索される 0.81
{10−5, 10−4,··· , 104, 105}. {10−5, 10−4,··· , 104, 105}. 0.96
• For MCC, its regularization parameter is searched in the same range of MSE, and its kernel width is searched from {0.1, 0.3, 0.5, 0.7, 1, 3, 5, 7, 10, 15, 30, 60, 100}. • mcc の場合、その正規化パラメータは同じ mse の範囲で探索され、そのカーネル幅は {0.1, 0.3, 0.5, 0.7, 1, 3, 7, 7, 10, 30, 60, 100} から探索される。 0.86
in the parameters σ1, σ2 パラメータ σ1, σ2 0.78
the regularization parameter is searched and chosen from 正規化パラメータは検索され、選択される 0.75
{10−5, 10−4,··· , 104, 105}, {10−5, 10−4,··· , 104, 105}, 0.98
• For MMCC, and λ are ・MMCCの場合 そしてλは 0.68
range the of 範囲 はあ? ですから 0.54
1We choose the one group parameters that can achieve minimum average 1 最小平均を達成することができる1つのグループパラメータを選択する 0.72
value of the sum of squares of validation errors. 検証エラーの2乗の合計の値。 0.61
英語(論文から抽出)日本語訳スコア
PERFORMANCE COMPARISON OF DIFFERENT METHODS ON LINEAR REGRESSION AVERAGED OVER 100 INDEPENDENT RUNS (THE BEST RESULTS ARE 100回の独立実行平均における線形回帰における異なる手法の性能比較 (最良の結果) 0.57
MARKED IN BOLD, THE SECOND BEST RESULTS ARE UNDERLINED, AND THE SYMBOL N/A MEANS THAT THE CORRESPONDING VALUE IS LESS THAN 太字で示され、第2の最良の結果が下線で示され、記号 n/a は対応する値が小さいことを意味する。
訳抜け防止モード: bold (複数形 bolds) 2番目に良い結果は下線です。 記号 n/a は対応する値が小さいことを意味する
0.42
TABLE II 0.0001) テーブルII 0.0001) 0.65
7 Index Noise Type 7 索引 騒音タイプ 0.76
MSE MCC MMCC MCC-VC MSE MCC MMCC MCC-VC 0.82
GMCC KRSL KMPE GMCC KRSL KMPE 0.85
QMEE ELN1 ELN2 QMEE ELN1 ELN2 0.81
RMSD Time Case 1 RMSD 時間 事例1 0.75
Case 2 Case 3 Case 4 事例2 事例3 事例4 0.69
Case 1 Case 2 Case 3 事例1 事例2 事例3 0.67
Case 4 0.1686 事例4 0.1686 0.64
0.1662 0.1659 0.1662 0.1659 0.59
0.1663 0.0922 0.1663 0.0922 0.59
0.0899 0.1010 0.0899 0.1010 0.59
0.0148 0.0116 0.0148 0.0116 0.59
0.0139 0.1667 0.0139 0.1667 0.59
0.1619 0.1612 0.1619 0.1612 0.59
0.1243 0.0817 0.1243 0.0817 0.59
0.0850 0.0903 0.0850 0.0903 0.59
0.0145 0.0125 0.0145 0.0125 0.59
0.0145 0.1133 0.0145 0.1133 0.59
0.0131 0.0131 0.0131 0.0131 0.59
0.0134 0.0131 0.0134 0.0131 0.59
0.0130 0.0138 0.0130 0.0138 0.59
0.0133 0.0164 0.0133 0.0164 0.59
0.0125 0.1143 0.0125 0.1143 0.59
0.0193 0.0187 0.0193 0.0187 0.59
0.0149 0.0163 0.0149 0.0163 0.59
0.0147 0.0163 0.0147 0.0163 0.59
0.0115 0.0119 0.0115 0.0119 0.59
0.0121 N/A 0.0121 N/A 0.59
N/A N/A N/A N/A N/A N/A 0.59
0.0006 0.0008 0.0006 0.0008 0.59
0.0063 0.0169 0.0063 0.0169 0.59
0.0134 0.0103 0.0134 0.0103 0.59
0.0318 0.0570 0.0318 0.0570 0.59
0.2094 0.0006 0.2094 0.0006 0.59
0.0006 0.0067 0.0006 0.0067 0.59
0.0282 0.0216 0.0282 0.0216 0.59
0.0128 0.0653 0.0128 0.0653 0.59
0.0407 0.2282 0.0407 0.2282 0.59
0.0008 0.0012 0.0008 0.0012 0.59
0.0008 0.0025 0.0008 0.0025 0.59
0.0044 0.0043 0.0044 0.0043 0.59
0.0346 0.0587 0.0346 0.0587 0.59
0.1653 0.0012 0.1653 0.0012 0.59
0.0012 0.0026 0.0012 0.0026 0.59
0.0061 0.0054 0.0061 0.0054 0.59
0.0047 0.0346 0.0047 0.0346 0.59
0.0310 0.3158 0.0310 0.3158 0.59
{0.1, 0.3, 0.5, 0.7, 1, 3, 5, 7}, {1, 3, 5, 7, 10, 15, 30, 100}, and {0, 0.1, 0.3, 0.5, 0.7, 0.9, 1.0}, respectively. {0.1, 0.3, 0.5, 0.7, 1, 3, 5, 7}, {1, 3, 5, 7, 10, 15, 30, 100}, and {0, 0.1, 0.3, 0.5, 0.7, 0.9, 1.0}, respectively. 0.90
• For MCC-VC, its center of Gaussian kernel is searched from {−5,−3,−1,−0.5, 0, 0.5, 1, 3, 5}, while the search ranges of the remaining parameters are kept the same of MCC. • MCC-VC の場合、ガウス核の中心は {−5,−3,−1,−0.5, 0, 0.5, 1, 3, 5} から探索され、残りのパラメータの探索範囲は MCC と同じである。 0.85
• For GMCC, the regularization parameter is chosen from {10−5, 10−4,··· , 104, 105}, the parameter α is searched from {1, 2, 3, 4, 5}, and the parameter λ is searched from {0.0005, 0.001, 0.005, 0.01, 0.05, 0.1, 0.5, 1, 5}. • GMCC の場合、正規化パラメータは {10−5, 10−4,·· , 104, 105} から選ばれ、パラメータ α は {1, 2, 3, 4, 5} から、パラメータ λ は {0.0005, 0.001, 0.005, 0.01, 0.05, 0.1, 0.5, 1, 5} から探索される。 0.85
is chosen from {10−5, 10−4,··· , 104, 105}, the parameter λ from {0.1, 0.3, 0.5, 0.7, 1, 3, 5, 7, 10}, from 10−5, 10−4,···· , 104, 105} から選択され、パラメータ λ は {0.1, 0.3, 0.5, 0.7, 1, 3, 7, 10} から選択される。 0.87
the regularization parameter • For KRSL, 正規化パラメータ •KRSLの場合 0.70
kernel the kernel はあ? 0.60
is width searched is and searched {0.1, 0.3, 0.5, 0.7, 1, 3, 5, 7, 10, 15, 30, 60, 100}. は 幅 捜索 is and searched {0.1, 0.3, 0.5, 0.7, 1, 3, 5, 7, 10, 15, 30, 60, 100}. 0.77
• For KMPE, kernel width same the of KRSL, and the parameter p is {0.1, 0.5, 1.0, 1.5, 2.0, 2.5, 3.0, 4.0, 5.0}. • KMPE の場合、カーネル幅は KRSL と同じであり、パラメータ p は {0.1, 0.5, 1.0, 1.5, 2.0, 2.5, 3.0, 4.0, 5.0} である。 0.67
• For QMEE, all the parameter search ranges of MCC are shared with it. • qmeeでは、mccのパラメータ探索範囲は、すべて共有されます。 0.69
In addition, the parameter for performing quantization operation in it is set to 0.5. また、量子化演算を行うパラメータを0.5とする。 0.62
the regularization parameter and the ranges searched from 正規化パラメータと検索された範囲 0.80
searched in are • For ELN1 and ELN2, the regularization parameter γ′2 is searched from {10−5, 10−4,··· , 104, 105}, the reference value σ for all kernel widths is searched from {0.1, 0.3, 0.5, 0.7, 1, 3, 5, 7, 10, 15, 30, 60, 100}, the number of radial basis functions is fixed at M = 50, the regularization parameter γ1 is set to 10−3, and the variance of perturbation term is set as ǫ = 0. 探して は • eln1 と eln2 について、正規化パラメータ γ′2 を {10−5, 10−4,···· , 104, 105} から探索し、すべてのカーネル幅に対する基準値 σ を {0.1, 0.3, 0.5, 0.7, 1, 5, 7, 10, 15, 30, 60, 100} から探索し、ラジアル基底関数の数を m = 50 に固定し、正規化パラメータ γ1 を 10−3 に設定し、摂動項の分散を s = 0 に設定する。 0.71
In addition, for all iteration-based methods, the maximum number of iteration is set as T = 50, and the tolerance for early stoping is set to τ = 10−7. さらに、すべてのイテレーションベースメソッドでは、イテレーションの最大数をt = 50に設定し、早期停止の許容度をτ = 10−7に設定する。 0.70
Based on the data shown in Table II, the following results can be obtained. 表IIに示すデータに基づいて、以下の結果が得られる。 0.69
• Although MCC, MMCC, MCC-VC, GMCC, KRSL, KMPE, QMEE, ELN1, and ELN2 need more training time in comparison with MSE criterion, they can outperform the later in terms of RMSD, significantly. • MCC, MMCC, MCC-VC, GMCC, KRSL, KMPE, QMEE, ELN1, ELN2は, MSE基準に比べて訓練時間が長いが, RMSDでは後者よりも有意に優れている。 0.85
This demonstrates the effectiveness of these ITL criteria and the ELN model in robust learning. これにより,これらのILL基準とELNモデルの有効性が示された。 0.66
• The RMSDs of MMCC, MMCC, MCC-VC, GMCC, •MMCC,MMCC,MCC-VC,GMC CのRMSD 0.77
KRSL, KMPE, QMEE, ELN1, and ELN2 are smaller than that of MCC on the most of cases. KRSL, KMPE, QMEE, ELN1, ELN2はほとんどの場合MCCよりも小さい。 0.71
This demonstrates that the criterion designed based on a single Gaussian kernel with zero-mean and fixed variance can be improved by changing its mean, variance, kernel type, or by integrating the advantages of different kernels. これは、ゼロ平均および固定分散を持つ単一のガウス核に基づいて設計された基準が、平均、分散、カーネルタイプを変更したり、異なるカーネルの利点を統合することによって改善されることを示す。
訳抜け防止モード: これはクレーターが設計したことを示している 平均と固定分散がゼロの単一のガウス核に基づく 平均、分散、カーネルタイプを変えることで改善できる。 異なるカーネルの利点を統合することで
0.71
• The QMEE, ELN1, and ELN2 can, in general, obtain a better peformance in terms of RMSD in comparison with other robust criteria. • QMEE, ELN1, ELN2 は, 一般に, 他の頑健な基準と比較して, RMSD よりも優れた性能が得られる。 0.85
The reason behind this may be that more kernels are involved in these three criteria, such that they can characterize complex noise distributions better [17]. この背景には、これらの3つの基準により多くのカーネルが関与しているため、複雑なノイズ分布をよりよく特徴づけることができる[17]。 0.67
• The ELN1 and ELN2 have the ability to obtain a comparative and even smaller RMSD than QMEE. • ELN1 と ELN2 は QMEE よりも比較的小さい RMSD を得ることができる。 0.79
A possible reason for this is that QMEE is built with a simple onlinevector quantization (OVQ) technology [17]. その理由は、QMEEが単純なオンラインベクトル量子化(OVQ)技術で構築されているためである。 0.79
Although this technology also chooses the centers of kernels from error samples, it however can not keep the distribution information of the original samples well [44]. この技術は、エラーサンプルからカーネルの中心も選択するが、元のサンプルの分布情報を十分に保持することはできない[44]。 0.75
Moreover, in the process of performing quantization operator, the contribution of a discarded error sample is directly measured by its closest center, which ignores the difference between two adjacent error samples. さらに、量子化演算子を実行する過程で、廃棄されたエラーサンプルの寄与を、近接する2つのエラーサンプルの差を無視した最も近い中心で直接測定する。 0.74
In contrast, the proposed ELN model is built based on the idea of RBF networks, whose centers do not depend on any specific manner. 対照的に、提案するELNモデルはRBFネットワークの考え方に基づいて構築されており、その中心は特定の方法に依存しない。 0.75
Once an approriate sampling technology, such as the random sampling technology adopted in ELN1 or the probability density rank-based quantization technology in ELN2, is it can capture more distribution information adopted, hidden in the original error samples. ELN1で採用されているランダムサンプリング技術やELN2で採用されている確率密度ランクに基づく量子化技術のような近似サンプリング技術は、元のエラーサンプルに隠されたより多くの分布情報をキャプチャすることができる。
訳抜け防止モード: ELN1におけるランダムサンプリング技術のような近似サンプリング技術 あるいは ELN2 の量子化技術に基づく 確率密度ランク 元のエラーサンプルに隠された、より多くの配布情報をキャプチャできるということです。
0.84
Meanwhile, the combination coefficient in the ELN model are determined by the idea of PDF matching, which can, to some extent, allocate the coefficients of different kernels in a more reasonable manner. 一方、ELNモデルの組合せ係数はPDFマッチングの概念によって決定され、これはある程度異なるカーネルの係数をより合理的に割り当てることができる。 0.67
2) Parameters sensitivity: Like other robust criteria, ELN includes more free parameters in comparison with MSE criterion. 2) パラメータの感度: 他のロバストな基準と同様に、ELNはMSE基準と比較してより自由なパラメータを含む。 0.73
In particular, when the radial basis function is assumed to be Gaussian kernel, the extra parameters to control the learning performace of an ELN include the regularization parameter γ1, the number of radial basis functions M , the reference value σ 特に、放射基底関数がガウス核であると仮定すると、ELNの学習性能を制御する余剰パラメータは正規化パラメータγ1、放射基底関数の個数M、基準値σを含む。
訳抜け防止モード: 特に いつ頃 放射基底関数はガウス核と仮定される ELNの学習性能を制御する余分なパラメータには、正規化パラメータγ1が含まれる。 放射基底関数 M , 基準値 σ の数
0.69
英語(論文から抽出)日本語訳スコア
D S M R 2 1.5 D S M R 2 1.5 0.76
1 0.5 0 20 1 0.5 0 20 0.76
107 103 10-3 107 103 10-3 0.76
100 1 10-7 100 1 10-7 0.76
60 100 140 60 100 140 0.85
180 220 M 260 180 220 M 260 0.85
300 60 100 300 60 100 0.85
140 180 220 140 180 220 0.85
M 260 300 8 M 260 300 8 0.85
107 103 10-3 107 103 10-3 0.76
100 1 10-7 100 1 10-7 0.76
(a) Case 1 (b) Case 2 (a)ケース1 (b)ケース2 0.82
D S M R 2 1.5 D S M R 2 1.5 0.76
1 0.5 0 20 1 0.5 0 20 0.76
107 103 10-3 107 103 10-3 0.76
100 1 10-7 100 1 10-7 0.76
60 100 140 60 100 140 0.85
180 M 220 260 180 M 220 260 0.85
300 107 103 300 107 103 0.85
10-3 100 1 10-3 100 1 0.76
10-7 60 100 10-7 60 100 0.76
140 180 M 220 140 180 M 220 0.85
260 300 D S M R 260 300 D S M R 0.85
2 1.5 1 0.5 2 1.5 1 0.5 0.72
0 20 D S M R 0 20 D S M R 0.85
2 1.5 1 0.5 2 1.5 1 0.5 0.72
0 20 Fig. 0 20 フィギュア。 0.64
6. Influence of the parameters M and γ1 on the learning performance of ELN under different noise environments. 6. 異なる騒音環境下でのELNの学習性能に及ぼすパラメータM, γ1の影響 0.82
(c) Case 3 (d) Case 4 (c)ケース3 (d)ケース4 0.81
for all kernel widths, and the variance of perturbation term ǫ. すべてのカーネル幅と摂動項のばらつきについて。 0.59
In the following experiments, the influence of these parameters on the learning performance of ELN is investigated. 以下の実験では,これらのパラメータがELNの学習性能に与える影響について検討した。 0.82
First, on the premise of setting the values of the other parameters to be the same as those selected in Section IV-A12, Fig. 第一に、他のパラメータの値が第IV条-A12条に選択された値と同じであるように設定すること。 0.73
6 shows the variation of RMSD versus M and γ1 under different noise environments. 6は異なる雑音環境下でのrmsdとmおよびγ1の変動を示す。 0.80
It can be seen from Fig 6 that, although both the choices of M and γ1 can affect the learning performance of ELN, there is always a large flat area that ELN can obtain a small RMSD close to the optimal value. 図6から見ると、M と γ1 の選択はいずれも ELN の学習性能に影響を与えるが、ELN が最適値に近い小さな RMSD を得ることのできる大きな平坦領域は常に存在する。 0.79
Moreover, once the value of γ1 is appropriately chosen and the value of M exceeds a certain value (for example, 10−2 ≤ γ1 ≤ 102 and M ≥ 50), the change of M does not affect the final learning performance of ELN, evidently. さらに、γ1の値が適切に選択され、Mの値が一定の値を超えると(例えば、10−2 ≤ γ1 ≤ 102 および M ≥ 50)、Mの変化はELNの最終学習性能に明らかに影響を与えない。 0.84
These results suggest that M and γ1 are two parameters which can be easy to be tuned, and hence we do not need to spend too much attention on the selection of them in practice. これらの結果は、m と γ1 はチューニングが容易な2つのパラメータであることを示唆しているので、実際にはそれらの選択にあまり注意を払わなくてもよい。 0.70
Then, by setting the values of the other parameters to そして、他のパラメータの値を設定することで、 0.88
Case 1 Case 2 Case 3 Case 4 ケース1 ケース2 ケース3 ケース4 0.72
101 100 10-1 101 100 10-1 0.76
D S M R 10-2 D S M R 10-2 0.72
10-3 10-2 10-1 10-3 10-2 10-1 0.59
100 101 102 100 101 102 0.85
103 Fig. 103 フィギュア。 0.64
7. under different noise environments. 7)異なる騒音環境下で 0.76
Influence of the parameter σ on the learning performance of ELN ELNの学習性能に及ぼすパラメータσの影響 0.75
2For all cases, ǫ = 0 is a default choice. 2 はすべての場合において既定の選択である。 0.70
In addition, the values of σ for Case 1, Case2, Case 3, and Case 4 are set to 1, 0.7, 3, and 0.7, respectively; 2 for Case 1, Case2, Case 3, and Case 4 are set to 10−1, the values of γ ′ 10−1, 10−2, and 100, respectively. また、ケース1、ケース3、ケース4のσの値はそれぞれ1,0.7,3,0.7とし、ケース1、ケース3、ケース4のσの値はそれぞれ10−1とし、γ ′ 10−1,10−2,100とする。
訳抜け防止モード: さらに、ケース 1 に対する σ の値は case2 である。 ケース3とケース4を1,0.7,3,0.7に設定する。 それぞれ ; 2 for case 1, case2, case 3 そして、4 は 10−1 に設定され、γ ′ 10−1 の値である。 10−2,100。
0.83
be the same of those selected in Section IV-A1, Fig 7 shows the variation of RMSD versus σ under different noise environments. 第iv-a1節で選択されたものと同様に、fig7は異なる雑音環境下でのrmsdとσの変動を示す。 0.62
As can be seen from Fig 7, the change of σ 図7に見られるように σ の変化は 0.69
英語(論文から抽出)日本語訳スコア
can affect the learning performance of ELN, significantly. ELNの学習性能に大きな影響を与える可能性がある。 0.72
In particular, when the value of σ is set near 100, the RMSD of ELN can approach its performance shown in Table II. 特に、σ の値が 100 付近に設定された場合、ELN のRMSD は表 II に示す性能に近づくことができる。 0.74
However, when the value of σ is set to be very large or very small, the RMSD of ELN can increase dramatically. しかし、σの値が非常に大きいか非常に小さいとすると、ELNのRMSDは劇的に増加する。 0.59
Therefore, σ is a parameter that should be carefully chosen in practice. したがって、σ は実際に慎重に選択されるべきパラメータである。 0.81
Other than the grid search method adopted in this paper, other productive technologies, like the particle swarm optimization (PSO) [51] method, can also be a good candidate. この論文で採用されているグリッド探索法以外にも, particle swarm optimization (pso) [51] 法のような他の生産的技術も良い候補となる。 0.84
INFLUENCE OF THE PARAMETER ǫ ON THE LEARNING PERFORMANCE OF パラメータsが学習性能に及ぼす影響 0.44
ELN UNDER DIFFERENT NOISE ENVIRONMENTS 異なる騒音環境下でのeln 0.38
TABLE III where D is the dimension of xi, K is the number of hidden nodes of the network, wk is the randomly generated weights which connect the k hidden node to the input layer, bk is the randomly generated bias of the k hidden node, and g is the activation function. テーブルIII D がxi の次元、K がネットワークの隠れノードの数、wk が k 隠れノードを入力層に接続するランダムに生成された重み、bk が k 隠れノードのランダムに生成されたバイアス、g が活性化関数である。
訳抜け防止モード: テーブルIII D がxi の次元である場合、K はネットワークの隠れノードの数である。 wkはランダムに生成された重みであり、k隠れノードを入力層に接続する。 bkはk隠れノードのランダムに生成されたバイアスです。 gは活性化関数です
0.73
In the following experiments, K is set to 200 for all compared methods and data sets, {wk}K k=1 are assumed to be drawn from uniform distribution over [−1, 1], {bk}K k=1 are assumed to be drawn from uniform distribution over [0, 1], and g is set as the ”sigmoid” function whose expression is 次の実験では、K は比較されたすべてのメソッドとデータセットに対して 200 に設定され、 {wk}Kk=1 は [−1, 1] 上の一様分布から引き出されると仮定され、 {bk}Kk=1 は [0, 1] 上の一様分布から引き出されると仮定され、g は式が "シグミド" 関数として設定される。 0.76
g(x) = 1 exp(−x) + 1 g(x) = 1 exp(−x) + 1 0.89
. (29) 9 ǫ . (29) 9 ǫ 0.85
0 10−7 10−5 10−3 10−1 100 101 103 105 0 10−7 10−5 10−3 10−1 100 101 103 105 0.65
RMSD Case 1 Case 2 RMSD 事例1 事例2 0.73
Case 3 Case 4 0.0116 事例3 事例4 0.0116 0.66
0.0125 0.0164 0.0125 0.0164 0.59
0.0119 0.0117 0.0119 0.0117 0.59
0.0132 0.0172 0.0132 0.0172 0.59
0.0110 0.0113 0.0110 0.0113 0.59
0.0127 0.0169 0.0127 0.0169 0.59
0.0121 0.0125 0.0121 0.0125 0.59
0.0141 0.0152 0.0141 0.0152 0.59
0.0128 0.3911 0.0128 0.3911 0.59
2.3767 0.0126 2.3767 0.0126 0.59
1.7032 0.0114 1.7032 0.0114 0.59
0.0133 0.1234 0.0133 0.1234 0.59
0.0120 0.4792 0.0120 0.4792 0.59
0.3405 0.0531 0.3405 0.0531 0.59
0.9983 1.5811 0.9983 1.5811 0.59
1.5811 1.5811 1.5811 1.5811 0.59
1.5811 1.5811 1.5811 1.5811 0.59
1.5811 1.5811 1.5811 1.5811 0.59
1.5811 Finally, the influence of ǫ on the learning performance of ELN is investigated, and the related experimental results are shown in Table III. 1.5811 最後に, ELN の学習性能に及ぼす ELN の影響について検討し, 実験結果について表III に示す。 0.68
It can be seen from Table III that, instead of always setting ǫ = 0, properly adjusting the value of ǫ can further enhance the learning performance of ELN. 表IIIから見ても、常に > = 0 を設定するのではなく、 > の値を適切に調整することで、ELN の学習性能をさらに向上させることができる。
訳抜け防止モード: 表IIIからわかるように、常に > = 0 をセットする代わりに、 の値を適切に調整する ELNの学習性能をさらに向上させることができる。
0.83
However, it should be noted that the RMSD of ELN will increase dramatically when the value of ǫ is set to be greater than 100. しかし、ELNのRMSDが100以上の値に設定されると劇的に増加することに注意する必要がある。 0.60
Thus, in the following experiments, only smaller values of ǫ will be considered as candidate set. したがって、以下の実験では、より小さい値の s のみが候補集合と見なされる。 0.76
B. Nonliner Regression In this subsection, ten real regression benchmark data sets, taken from UCI machine learning repository [52], LIACC3 and LIBSVM4, are further adopted to test the performance of the proposed ELN in nonlinear regression examples. b.非ライナー回帰 本項では,UCI機械学習レポジトリ[52],LIACC3,LIBSVM4から抽出した10個の実回帰ベンチマークデータセットを用いて,回帰回帰例において提案したELNの性能を検証する。 0.69
The descriptions of these data sets are shown in Table IV. これらのデータセットの説明は、表IVに示されている。 0.71
In the experiment, the training and testing samples for each data set are randomly selected and the data have been normalized into the range of [0, 1]. 実験では、各データセットのトレーニングおよびテストサンプルをランダムに選択し、データを[0,1]の範囲に正規化する。
訳抜け防止モード: 実験で 各データセットのトレーニングとテストのサンプルはランダムに選択される そしてデータは[0, 1]の範囲に正規化されている。
0.84
To perform the nonlinear mapping from inputs to outputs of these data sets, the random vector functional link network (RVFLN) [45] will be adopted as an LIP model for training. これらのデータセットの出力に対する入力からの非線形マッピングを行うため、ランダムベクトル汎関数リンクネットワーク(RVFLN)[45]をトレーニング用LIPモデルとして採用する。 0.89
Following the idea of RVFLN, the hi shown in (16) can be constructed by RVFLN のアイデアに従って (16) で示されるhi を構築できる。 0.70
hi = [xi,|ϕ1(xi), ϕ2(xi),··· , ϕK(xi)] ∈ R(D+K) hi = [xi,|φ1(xi), φ2(xi),··· , φK(xi)] ∈ R(D+K) 0.88
(27) with ϕk(xi) = g(xiwk + bk), k = 1, 2, . (27) と φk(xi) = g(xiwk + bk), k = 1, 2, ... である。 0.77
. . , K (28) . . 、K。 (28) 0.83
3https://www.dcc.fc. up.pt/∼ltorgo/Regression/Da taSets.html 4https://www.csie.nt u.edu.tw/∼cjlin/libsvmtools/da tasets/ 3https://www.dcc.fc. up.pt/\ltorgo/Regres sion/DataSets.html 4https://www.csie.nt u.edu.tw/\cjlin/libs vmtools/datasets/ 0.17
SPECIFICATION OF REGRESSION BENCHMARK DATA SETS 回帰ベンチマークデータセットの仕様 0.35
TABLE IV Data Set テーブルIV データセット 0.72
Attributes Training Testing Concrete Slump Test 属性 研修 テスト コンクリートスランプ試験 0.69
Machine CPU Residential Building Auto MPG マシンCPU 住宅 オートMPG 0.63
Real Estate Valuation Concrete Compressive Strength 不動産評価額 コンクリートの圧縮強度 0.85
Space GA Computer Activity スペースGA コンピュータ活動 0.70
Pole California Housing ポール カリフォルニアの住宅 0.67
10 7 106 8 10 7 106 8 0.85
7 9 7 21 48 7 9 7 21 48 0.85
9 52 105 186 9 52 105 186 0.85
199 207 515 199 207 515 0.85
1554 4096 7500 1554 4096 7500 0.85
52 104 186 52 104 186 0.85
199 207 515 199 207 515 0.85
1553 4096 7500 1553 4096 7500 0.85
10320 10320 10320 10320 0.85
In order to make a fair comparison, the parameters for each method are still chosen by the grid search method. 公平な比較を行うため,各手法のパラメータはグリッド探索法によってまだ選択されている。 0.79
In detail, the parameter search ranges of MSE, MCC, MMCC, MCC-VC, GMCC, KRSL, and KMPE are directly set to the same of those in Section IV-A1. 詳細は、MSE、MCC、MMCC、MCC-VC、GMCC、KRSL、KMPEのパラメータ探索範囲をセクションIV-A1のパラメータと直接設定する。
訳抜け防止モード: 詳細は、MSE, MCC, のパラメータ探索範囲を参照。 MMCC、MCC - VC、GMCC、KRSL、KMPEは、セクションIV - A1のものと直接同じに設定される。
0.69
For QMEE, except that the parameter for performing quantization operation has been changed to 0.2, other parameters of it are searched in the same ranges described in Section IV-A1. QMEEの場合、量子化演算を行うパラメータは0.2に変更されたが、他のパラメータはセクションIV-A1で記述された同じ範囲で探索される。 0.75
For ELN, the random sampling technology is chosen to generate the centers of radial basis functions, the search range of γ1 has been extended to {10−5, 10−3, 10−1}, the variance of perturbation term is fixed at ǫ = 10−4, while the number of radial basis functions is chosen in the manner of ELN の場合、乱サンプリング技術は放射基底関数の中心を生成するために選択され、γ1 の探索範囲は {10−5, 10−3, 10−1} まで拡張され、摂動項の分散は = 10−4 で固定され、放射基底関数の数は radial basis function の方法で選択される。 0.83
M =  N, 50, 300, M = ? N,50,300, 0.75
N < 50 50 ≤ N < 3000 N ≥ 3000 n < 50 50 ≤ n < 3000 n ≥ 3000 0.79
(30) where N is the number of training samples. (30) ここで N はトレーニングサンプルの数です。 0.81
In addition, since the optimal weight vector β∗ is not avaliable in this part, RMSD has been replaced with the root mean square Error (RMSE) for performance evaluation, i. e., また、この部分では最適重みベクトルβ∗が値付けできないため、RMSDを根平均二乗誤差(RMSE)に置き換えて性能評価を行った。 0.70
RMSE =vuut RMSE =vuut 0.88
1 Nte Nte Xi=1(cid:16)di − ˆdi(cid:17)2 1Nte nte Xi=1(cid:16)di − sdi(cid:17)2 0.64
(31) (31) 0.85
英語(論文から抽出)日本語訳スコア
10 TEST RMSE OF DIFFERENT METHODS ON REGRESSION BENCHMARK DATA SETS AVERAGED OVER 20 INDEPENDENT RUNS 10 20分区間以上におけるレグレッション・ベンチマーク・データセットの差分法に関する実験的検討 0.67
TABLE V Noise Setting テーブルV 騒音設定 0.68
Data Set MSE データセット MSE 0.82
MCC MMCC MCC-VC MCC MMCC MCC-VC 0.78
GMCC KRSL KMPE GMCC KRSL KMPE 0.85
QMEE ELN Noise-free QMEE ELN ノイズフリー 0.78
Concrete Slump Test コンクリートスランプ試験 0.68
0.0456 0.0447 0.0456 0.0447 0.59
0.0442 0.0443 0.0442 0.0443 0.59
0.0456 0.0456 0.0456 0.0456 0.59
0.0441 0.0443 0.0441 0.0443 0.59
0.0425 Machine CPU 0.0425 マシンCPU 0.68
0.0527 0.0544 0.0527 0.0544 0.59
0.0533 0.0547 0.0533 0.0547 0.59
0.0527 0.0559 0.0527 0.0559 0.59
0.0532 0.0527 0.0532 0.0527 0.59
0.0527 Residential Building 0.0263 0.0527 住宅 0.0263 0.52
0.0263 0.0263 0.0263 0.0263 0.59
0.0266 0.0264 0.0266 0.0264 0.59
0.0264 0.0264 0.0264 0.0264 0.59
0.0262 0.0257 0.0262 0.0257 0.59
Auto MPG 0.0790 オートMPG 0.0790 0.66
0.0785 0.0777 0.0785 0.0777 0.59
0.0785 0.0786 0.0785 0.0786 0.59
0.0824 0.0801 0.0824 0.0801 0.59
0.0819 0.0789 0.0819 0.0789 0.59
Real Estate Valuation 0.0807 不動産評価額 0.0807 0.71
0.0795 0.0794 0.0795 0.0794 0.59
0.0795 0.0803 0.0795 0.0803 0.59
0.0790 0.0791 0.0790 0.0791 0.59
0.0804 0.0796 0.0804 0.0796 0.59
Concrete Compressive Strength コンクリートの圧縮強度 0.87
0.0813 0.0812 0.0813 0.0812 0.59
0.0809 0.0812 0.0809 0.0812 0.59
0.0813 0.0809 0.0813 0.0809 0.59
0.0813 0.0808 0.0813 0.0808 0.59
0.0822 Space GA 0.0822 スペースGA 0.62
0.0343 0.0339 0.0343 0.0339 0.59
0.0339 0.0339 0.0339 0.0339 0.59
0.0343 0.0343 0.0343 0.0343 0.59
0.0343 0.0339 0.0343 0.0339 0.59
0.0339 Computer Activity 0.0339 コンピュータ活動 0.67
0.0339 0.0339 0.0339 0.0339 0.59
0.0339 0.0339 0.0339 0.0339 0.59
0.0339 0.0340 0.0339 0.0340 0.59
0.0339 0.0339 0.0339 0.0339 0.59
0.0331 Pole 0.0331 ポール 0.58
0.2169 0.2162 0.2169 0.2162 0.59
0.2162 0.2162 0.2162 0.2162 0.59
0.2169 0.2169 0.2169 0.2169 0.59
0.2162 0.2164 0.2162 0.2164 0.59
0.2159 California Housing 0.2159 カリフォルニアの住宅 0.68
0.1295 0.1284 0.1295 0.1284 0.59
0.1287 0.1281 0.1287 0.1281 0.59
0.1289 0.1285 0.1289 0.1285 0.59
0.1292 0.1283 0.1292 0.1283 0.59
0.1284 Noise-contaminated 0.1284 騒音汚染 0.60
Concrete Slump Test コンクリートスランプ試験 0.68
0.2997 0.2541 0.2997 0.2541 0.59
0.2654 0.2627 0.2654 0.2627 0.59
0.2381 0.6785 0.2381 0.6785 0.59
0.2946 0.2098 0.2946 0.2098 0.59
0.2161 Machine CPU 0.2161 マシンCPU 0.68
0.1524 0.1347 0.1524 0.1347 0.59
0.1359 0.1559 0.1359 0.1559 0.59
0.1148 0.1360 0.1148 0.1360 0.59
0.2493 0.0878 0.2493 0.0878 0.59
0.0761 Residential Building 0.1611 0.0761 住宅 0.1611 0.52
0.1525 0.1532 0.1525 0.1532 0.59
0.1525 0.1524 0.1525 0.1524 0.59
0.1515 0.1511 0.1515 0.1511 0.59
0.1110 0.0917 0.1110 0.0917 0.59
Auto MPG 0.1938 オートMPG 0.1938 0.66
0.1957 0.1984 0.1957 0.1984 0.59
0.2102 0.1420 0.2102 0.1420 0.59
0.1232 0.1589 0.1232 0.1589 0.59
0.1341 0.0934 0.1341 0.0934 0.59
Real Estate Valuation 0.1197 不動産評価額 0.1197 0.71
0.1175 0.1216 0.1175 0.1216 0.59
0.1261 0.0995 0.1261 0.0995 0.59
0.0899 0.0884 0.0899 0.0884 0.59
0.1022 0.0983 0.1022 0.0983 0.59
Concrete Compressive Strength コンクリートの圧縮強度 0.87
0.2304 0.2236 0.2304 0.2236 0.59
0.1686 0.2236 0.1686 0.2236 0.59
0.1678 0.1786 0.1678 0.1786 0.59
0.1840 0.1603 0.1840 0.1603 0.59
0.1443 Space GA 0.1443 スペースGA 0.62
0.0592 0.0513 0.0592 0.0513 0.59
0.0558 0.0513 0.0558 0.0513 0.59
0.0460 0.0456 0.0460 0.0456 0.59
0.0570 0.0417 0.0570 0.0417 0.59
0.0411 Computer Activity 0.0411 コンピュータ活動 0.67
0.1267 0.1188 0.1267 0.1188 0.59
0.1125 0.1188 0.1125 0.1188 0.59
0.0758 0.0756 0.0758 0.0756 0.59
0.0754 0.0456 0.0754 0.0456 0.59
0.0471 Pole 0.0471 ポール 0.58
0.2610 0.2546 0.2610 0.2546 0.59
0.2536 0.2546 0.2536 0.2546 0.59
0.2372 0.2391 0.2372 0.2391 0.59
0.2359 0.2235 0.2359 0.2235 0.59
0.2220 California Housing 0.2220 カリフォルニアの住宅 0.68
0.1497 0.1482 0.1497 0.1482 0.59
0.1470 0.1482 0.1470 0.1482 0.59
0.1361 0.1350 0.1361 0.1350 0.59
0.1349 0.1304 0.1349 0.1304 0.59
0.1294 where di and ˆdi are the real output and its estimate of the i-th testing sample5, respectively, and Nte is the number of testing samples. 0.1294 ここでは di と shdi が実出力であり、i 番目のテストサンプル 5 の見積もりであり、Nte はテストサンプルの数である。 0.68
Table V shows the test RMSE of different methods on the ten regression benchmark data sets, where “noise-free” means that we do not add any additional artificial noise to these data sets and “noise-contaminated” means that some artificial noises have been added to them. 表5は、10つの回帰ベンチマークデータセット上で異なるメソッドのテストRMSEを示しており、ここでは“noise-free”は、これらのデータセットに追加の人工ノイズを追加せず、“noise-contaminated”は、いくつかの人工ノイズが付加されたことを意味する。 0.69
The details about noise model can refer to (25)6. ノイズモデルの詳細は (25)6を参照してください。 0.77
It can be seen from Table V that, although ELN not always obtains the minimal RMSE on the ten data sets, it can, at least, outperform other compared methods on the most of data sets in terms of RMSE. 表 V から見ると、ELN は 10 個のデータセットで最小の RMSE を得るわけではないが、少なくとも RMSE の点において、ほとんどのデータセットで比較されたメソッドよりも優れている。 0.76
One thing worth noting is that if additional noises are introduced, the performance superiority of ELN is also more prominent. 注目すべきは、追加のノイズが導入された場合、ELNのパフォーマンス上の優位性もより顕著であることだ。
訳抜け防止モード: 注目すべきは 追加ノイズが導入された場合、ELNの性能上の優位性もより顕著である。
0.79
V. CONCLUSION V.コンキュレーション 0.76
This paper proposed a novel model called ELN, whose input is an error sample and output is a loss function corresponding to that error sample. 本稿では,エラーサンプルを入力とし,そのエラーサンプルに対応する損失関数を出力とするELNという新しいモデルを提案する。 0.87
It can be verified that ELN provides a unified framework for a large class of error loss functions, ELNが大規模なエラー損失関数に対して統一的なフレームワークを提供するかどうかを検証することができる。 0.65
5After training ends, a bias with its value being equal to the mean of training errors has been added to the outputs of the model when QMEE and ELN have been adopted for training. 5 トレーニング終了後,QMEE と ELN がトレーニングに採用された際に,トレーニングエラーの平均値に等しいバイアスがモデルの出力に追加された。 0.74
Such operator is common to superived learning methods under the MEE criterion, and the details can refer to [10]. このような演算子は、mee基準の下では教師付き学習メソッドに共通であり、詳細は[10]を参照できる。 0.56
Since QMEE and ELN are closely related to MEE, the outputs of the models trained with them are both added with an additional bias. QMEE と ELN は MEE と密接に関連しているため、それらで訓練されたモデルの出力はいずれも追加バイアスで加算される。 0.73
6Only the outputs of training samples are contaminated by noise, and the test samples are noise-free. 6 トレーニングサンプルの出力はノイズによって汚染され、試験サンプルはノイズフリーである。 0.83
In addition, the density functions of Ai and Bi are 1/2N (−0.8, 0.01) + 1/2N (0.8, 0.01) and N (0, 10), respectively. さらに、Ai と Bi の密度関数はそれぞれ 1/2N (−0.8, 0.01) + 1/2N (0.8, 0.01) と N (0, 10) である。 0.77
including most of ITL loss functions as special cases. ITL損失関数の大部分を特別なケースとして含む。 0.62
Based on the fact that the activation function, weight parameters and network size of ELN can be predetermined or learned from the error samples, we further proposed a new machine learning paradigm where the learning process is divided into two stages: first, learning a loss function using an ELN; second, using the learned loss function to continue to perform the learning. さらに, ELNの活性化関数, 重みパラメータ, ネットワークサイズを誤差サンプルから決定あるいは学習できることから, 学習プロセスは, ELNを用いて損失関数を学習し, 学習を継続する2つの段階に分けられる, 新たな機械学習パラダイムを提案する。
訳抜け防止モード: 活性化関数, 重みパラメータが作用するという事実に基づく。 そして、エラーサンプルからELNのネットワークサイズを指定または学習することができる。 さらに,学習過程を2段階に分けた新しい機械学習パラダイムを提案する。 ELNを用いた損失関数学習 : 第2報 学習損失関数を用いた損失関数学習 学びを続けます
0.84
Experimental results on linear and non-linear regression examples showed that the method based on ELN not only has the better performance to deal with non-Gaussian noise interference than the traditional MSE criterion, but also is very competitive in comparison with other existing and popular ITL loss functions. 線形および非線形回帰例による実験結果から,ELN に基づく手法は従来の MSE 基準よりもガウス的でないノイズ干渉に対処できる優れた性能を持つだけでなく,既存の ITL 損失関数と比較して非常に競争力があることがわかった。 0.86
It should be noted that this work only provides some alternative manners to train an efective ELN model and applies such model to regression applications. 注意すべきなのは この作業は、エフェクティブなelnモデルをトレーニングするための別の方法のみを提供し、そのようなモデルを回帰アプリケーションに適用する。
訳抜け防止モード: 注意すべきなのは この作品には別の方法があります ELNモデルをトレーニングし、そのようなモデルを回帰アプリケーションに適用する。
0.68
In the future, more productive technologies to train the ELN model deserve to be further explored, and more application scenarios are worthy of further exploration. 将来的には、elnモデルをトレーニングする生産性の高いテクノロジをさらに探究するべきであり、アプリケーションシナリオはさらに探究する価値があります。 0.74
REFERENCES [1] E. J. Coyle and J. H. Lin, “Stack filters and the mean absolute error criterion,” IEEE Trans. 参考 [1] E. J. Coyle, J. H. Lin, “Stack filters and the mean absolute error criterion”, IEEE Trans。 0.69
Acoust. Speech, Signal Process., vol. acoust ? 音声、信号処理。 0.51
36, no. 8, pp. 36だ 8, pp。 0.60
1244–1254, 1988. 1244–1254, 1988. 0.84
[2] S. C. Pei and C. C. Tseng, “Least mean p-power error criterion for adaptive FIR filter,” IEEE J. Sel. S.C. Pei and C. C. Tseng, “Least mean p-power error criterion for Adaptive FIR filter”. IEEE J. Sel. 0.91
Areas Commun., vol. 12, no. 市町村、市町村。 12だ 0.36
9, pp. 1540–1547, 1994. 9、p。 1540–1547, 1994. 0.75
[3] J. Yang, F. Ye, H.-J. [3]J. Yang, F. Ye, H.-J. 0.86
Rong, and B. Chen, “Recursive least mean p-power Rong, and B. Chen, “Recursive least means p-power” 0.86
extreme learning machine,” Neural Netw., vol. Neural Netw., vol.”。 0.44
91, pp. 22–33, 2017. 91, pp。 22–33, 2017. 0.82
英語(論文から抽出)日本語訳スコア
[4] F. Wen, “Diffusion least-mean p-power algorithms for distributed estimation in alpha-stable noise environments,” Electron. F. Wen, “Diffusion least-mean p-power algorithm for distributed estimation in alpha-stable noise environment”。 0.77
Lett., vol. Lett., vol. 0.85
49, no. 21, pp. 49、ノー。 21、p。 0.71
1355–1356, 2013. 1355–1356, 2013. 0.84
[5] C. Chen, C. Yan, N. Zhao, B. Guo, and G. Liu, “A robust algorithm of support vector regression with a trimmed Huber loss function in the primal,” Soft Comput., vol. C. Chen, C. Yan, N. Zhao, B. Guo, G. Liu, “プリマルのハマー損失関数をトリミングしたベクトル回帰をサポートする堅牢なアルゴリズム”, Soft Comput., vol. 0.77
21, no. 18, pp. 21だ 18, pp。 0.60
5235–5243, 2017. 5235–5243, 2017. 0.84
[6] A. Esmaeili and F. Marvasti, “A novel approach to quantized matrix completion using Huber loss measure,” IEEE Signal Process. A. Esmaeili and F. Marvasti, “A novel approach to Quantized matrix completion using Huber loss measure”, IEEE Signal Process。 0.70
Lett., vol. Lett., vol. 0.85
26, no. 2, pp. 337–341, Feb. 2019. 26だ 2、p。 337-341年2月。 0.56
[7] M. O. Sayin, N. D. Vanli, and S. S. Kozat, “A novel family of adaptive filtering algorithms based on the logarithmic cost,” IEEE Trans. 7]m.o.sayin氏、n.d. vanli氏、s.s. kozat氏、"対数コストに基づく適応フィルタリングアルゴリズムの新しいファミリー"、ieee trans氏。
訳抜け防止モード: [7]M.O.Sayin,N.D.Vanli, そしてS.S. Kozatは、“対数コストに基づく適応フィルタリングアルゴリズムの新しいファミリー”だ。 IEEE Trans。
0.75
Signal Process., vol. Signal Process., vol. 0.85
62, no. 17, pp. 62、ノー。 17, pp。 0.78
4411–4424, 2014. 4411–4424, 2014. 0.84
[8] T. A. Courtade and T. Weissman, “Multiterminal source coding under logarithmic loss,” IEEE Trans. 8]t.a. courtade氏とt. weissman氏は、"対数損失下でのマルチターミナル・ソース・コーディング"だ。
訳抜け防止モード: [8 ] T. A. Courtade と T. Weissman 氏は,“対数的損失の下でのマルチ端末ソースコーディング” だ。 IEEE Trans。
0.69
Inf. Theory, vol. 60, no. Inf 理論、巻。 60だ 0.50
1, pp. 740–761, 2014. 1、p。 740–761, 2014. 0.74
[9] C. Xu, D. Tao, and C. Xu, “Multi-view intact space learning,” IEEE Trans. C. Xu, D. Tao, C. Xu, “Multi-view intact space learning”, IEEE Trans。 0.71
Pattern Anal. Mach. パターンアナル。 Mach 0.54
Intell., vol. Intell., vol. 0.85
37, no. 12, pp. 37 だめだ 12、p。 0.60
2531–2544, 2015. 2531–2544, 2015. 0.84
[10] J. C. Pr´ıncipe, Information Theoretic Learning: Renyi’s Entropy and 10] j. c. pr ́ıncipe, information theoretic learning: renyi's entropy and 0.83
Kernel Perspectives. カーネル・パースペクティブ。 0.56
New York, NY, USA: Springer, 2010. New York, NY, USA: Springer, 2010 0.75
[11] D. Erdogmus and J. C. Principe, “An error-entropy minimization algorithm for supervised training of nonlinear adaptive systems,” IEEE Trans. 11] d. erdogmusとj. c. principeは、“非線形適応システムの教師付きトレーニングのためのエラーエントロピー最小化アルゴリズム”だ。 0.78
Signal Process., vol. Signal Process., vol. 0.85
50, no. 7, pp. 50だ 7, pp。 0.60
1780–1786, 2002. 1780–1786, 2002. 0.84
[12] B. Chen, Y. Zhu, and J. Hu, “Mean-square convergence analysis of ADALINE training with minimum error entropy criterion,” IEEE Trans. B. Chen, Y. Zhu, J. Hu, “Mean-square convergence analysis of ADALINE training with least error entropy criterion”, IEEE Trans。 0.74
Neural Netw., vol. Neural Netw., vol. 0.85
21, no. 7, pp. 21だ 7, pp。 0.60
1168–1179, 2010. 1168–1179, 2010. 0.84
[13] W. Liu, P. P. Pokharel, and J. C. Pr´ıncipe, “Correntropy: properties and applications in non-Gaussian signal processing,” IEEE Trans. 13] W. Liu, P. P. Pokharel, and J. C. Pr ́ıncipe, “Correntropy: Properties and application in non-Gaussian signal processing”, IEEE Trans。 0.92
Signal Process., vol. Signal Process., vol. 0.85
55, no. 11, pp. 5286–5298, Nov. 2007. 55だ 11、p。 5286-5298, 2007年11月。 0.52
[14] B. Chen, L. Xing, B. Xu, H. Zhao, and J. C. Prªncipe, “Insights into the robustness of minimum error entropy estimation,” IEEE Trans. B. Chen氏、L. Xing氏、B. Xu氏、H. Zhao氏、J. C. Pr'ancipe氏は、"最小エラーエントロピー推定の堅牢性への洞察" とIEEE Trans。
訳抜け防止モード: [14 ]Chen,L.Xing,B.Xu, H. Zhao, J. C. Pr'ancipe, “最小エラーエントロピー推定の堅牢性への洞察”。 IEEE Trans。
0.81
Neural Netw. Learn. ニューラルネット。 学ぶ。 0.57
Syst., vol. Syst., vol. 0.85
29, no. 3, pp. 731–737, 2018. 29歳。 3、p。 731–737, 2018. 0.65
[15] B. Chen, L. Xing, H. Zhao, S. Du, and J. C. Prªncipe, “Effects of outliers on the maximum correntropy estimation: A robustness analysis,” IEEE Trans. B. Chen, L. Xing, H. Zhao, S. Du, and J. C. Pr'ancipe, “Afects of Outliers on the maximum correntropy Estimation: A robustness analysis, IEEE Trans。 0.85
Syst. Man Cybern. シスト。 サイバーマン。 0.58
Part B, pp. 1–6, 2019. 第B部、p。 1–6, 2019. 0.79
[16] L. Bako, “Robustness analysis of a maximum correntropy framework 16] l. bako著, 『最大correntropy frameworkのロバストネス解析』 0.77
for linear regression,” Automatica, vol. とautomatica, vol.1は述べている。 0.43
87, pp. 218–225, 2018. 87, pp。 218–225, 2018. 0.82
[17] B. Chen, L. Xing, N. Zheng, and J. C. Pr´ıncipe, “Quantized minimum error entropy criterion,” IEEE Trans. B. Chen, L. Xing, N. Zheng, and J. C. Pr ́ıncipe, “Quantized minimum error entropy criterion”, IEEE Trans。 0.86
Neural Netw. Learn. ニューラルネット。 学ぶ。 0.57
Syst., vol. Syst., vol. 0.85
30, no. 5, pp. 30だ 5, pp。 0.59
1370–1380, 2019. 1370–1380, 2019. 0.84
[18] B. Chen, L. Xing, H. Zhao, N. Zheng, and J. C. Pr´ıncipe, “Generalized correntropy for robust adaptive filtering,” IEEE Trans. B. Chen, L. Xing, H. Zhao, N. Zheng, and J. C. Pr ́ıncipe, “Generalized correntropy for robust adapt filtering”, IEEE Trans。 0.86
Signal Process., vol. Signal Process., vol. 0.85
64, no. 13, pp. 64, No. 13、p。 0.73
3376–3387, Jul. 3376-3387 ジュール。 0.57
2016. [19] B. Chen, X. Wang, N. Lu, S. Wang, J. Cao, and J. Qin, “Mixture correntropy for robust learning,” Pattern Recognit., vol. 2016. B. Chen, X. Wang, N. Lu, S. Wang, J. Cao, J. Qin, “Mixture correntropy for robust learning”, Pattern Recognit., Vol. 0.84
79, pp. 318– 327, 2018. 79, pp。 318– 327, 2018. 0.90
[20] Y. Wang, L. Yang, and Q. Ren, “A robust classification framework with [20] Y. Wang, L. Yang, Q. Ren, “堅牢な分類フレームワーク 0.83
mixture correntropy,” Inf. Mix correntropy” だ。 0.51
Sci., vol. Sci., vol. 0.85
491, pp. 306–318, 2019. 491年、p。 306–318, 2019. 0.76
[21] B. Chen, L. Xing, B. Xu, H. Zhao, N. Zheng, and J. C. Prªncipe, “Kernel risk-sensitive loss: Definition, properties and application to robust adaptive filtering,” IEEE Trans. 21] b. chen, l. xing, b. xu, h. zhao, n. zheng, j. c. pr'ancipe, “カーネルリスクに敏感な損失: 堅牢な適応的フィルタリングに対する定義、特性、応用。
訳抜け防止モード: [21 ]Chen,L.Xing,B.Xu, H. Zhao, N. Zheng, and J. C. Pr'ancipe, “カーネルリスク - 感受性損失 : 定義、特性およびロバスト適応フィルタリングへの応用” IEEE Trans。
0.82
Signal Process., vol. Signal Process., vol. 0.85
65, no. 11, pp. 2888–2901, 2017. 65だ 11、p。 2888–2901, 2017. 0.63
[22] B. Chen, L. Xing, X. Wang, J. Qin, and N. Zheng, “Robust learning with kernel mean p -power error loss,” IEEE Trans. 22] b. chen, l. xing, x. wang, j. qin, and n. zheng, “カーネルによるロバスト学習は、p-パワーエラー損失を意味する”、とieee transは述べている。
訳抜け防止モード: [22]B.Chen,L.Xing,X.Wang , J.Qin氏とN.Zheng氏は,“カーネルによるロバスト学習は,pパワーエラー損失を意味する”。 IEEE Trans。
0.67
Cybern., vol. 48, no. サイバー。 48, No. 0.57
7, pp. 2101–2113, 2018. 7, pp。 2101–2113, 2018. 0.82
[23] B. Chen, X. Wang, Y. Li, and J. C. Principe, “Maximum correntropy criterion with variable center,” IEEE Signal Process. B. Chen, X. Wang, Y. Li, J. C. Principe, “Maximum correntropy criterion with variable center”, IEEE Signal Process 0.75
Lett., vol. Lett., vol. 0.85
26, no. 8, pp. 26だ 8, pp。 0.59
1212–1216, 2019. 1212–1216, 2019. 0.84
[24] B. Chen, X. Wang, Z. yuan, P. Ren, and J. Qin, “Multi-kernel correntropy B. Chen, X. Wang, Z. Yuan, P. Ren, and J. Qin, “Multi-kernel correntropy” 0.89
for robust learning,” arXiv, 2019. とarXivは2019年だ。 0.25
[25] Y. Feng, X. Huang, L. Shi, Y. Yang, and J. [25] Y. Feng, X. Huang, L. Shi, Y. Yang, J. 0.97
A. Suykens, “Learning with the maximum correntropy criterion induced losses for regression,” J. Mach. A. Suykens氏は「最大コレントロピー基準の学習は回帰の損失を招いた」と述べた。 0.66
Learn. Res., vol. 学ぶ。 res. (複数形 res.) 0.46
16, no. 30, pp. 16位はノー。 pp. 30。 0.74
993–1034, 2015. 993–1034, 2015. 0.84
[26] S. Zhao, B. Chen, and J. C. Pr´ıncipe, “Kernel adaptive filtering with maximum correntropy criterion,” in Proceedings of International Joint Conference on Neural Networks, Jul. 26] s. zhao, b. chen, j. c. pr ́ıncipe, “kernel adaptive filter with maximum correntropy criterion” in proceedings of international joint conference on neural networks, jul. (英語) 0.82
2011, pp. 2012–2017. 2011年、p。 2012–2017. 0.75
[27] Y. Wang, W. Zheng, S. Sun, and L. Li, “Robust information filter based on maximum correntropy criterion,” J. Guid. Y. Wang, W. Zheng, S. Sun, L. Li, “Robust information filter based on maximum correntropy criterion”. J. Guid. 0.81
Control Dyn., vol. Control Dyn., vol. 0.85
39, no. 5, pp. 39位、ノー。 5, pp。 0.80
1126–1131, 2016. 1126–1131, 2016. 0.84
[28] X. Liu, B. Chen, B. Xu, Z. Wu, and P. Honeine, “Maximum correntropy unscented filter,” Int. [28] X. Liu, B. Chen, B. Xu, Z. Wu, P. Honeine, “Maximum correntropy unscented filter”, Int。 0.89
J. Syst. Sci., vol. J.Syst Sci., vol. 0.76
48, no. 8, pp. 48, No. 8, pp。 0.82
1607–1615, 2017. 1607–1615, 2017. 0.84
[29] Z. Wu, J. Shi, X. Zhang, W. Ma, and B. Chen, “Kernel recursive maximum correntropy,” Signal Process., vol. 929] Z. Wu, J. Shi, X. Zhang, W. Ma, B. Chen, “Kernel recursive maximum correntropy”, Signal Process, vol。 0.79
117, pp. 11–16, Dec. 2015. 117, pp。 2015年12月11-16日。 0.68
[30] Z. Wu, S. Peng, B. Chen, and H. Zhao, “Robust Hammerstein adaptive filtering under maximum correntropy criterion,” Entropy, vol. 30] z. wu, s. peng, b. chen, h. zhao, “robust hammerstein adaptive filter under maximum correntropy criterion” entropy, vol. (英語) 0.72
17, no. 10, pp. 17 だめだ 10, pp。 0.66
7149–7166, 2015. 7149–7166, 2015. 0.84
11 [31] W. Ma, H. Qu, G. Gui, L. Xu, J. Zhao, and B. Chen, “Maximum correntropy criterion based sparse adaptive filtering algorithms for robust channel estimation under non-Gaussian environments,” J. Franklin Inst., vol. 11 31] w. ma, h. qu, g. gui, l. xu, j. zhao, b. chen, “非ガウス環境下でのロバストなチャネル推定のための最大コレントロピー基準に基づくスパース適応フィルタリングアルゴリズム” j. franklin inst., vol. 0.82
352, no. 7, pp. 352、ノー。 7, pp。 0.78
2708 – 2727, 2015. 2708 – 2727, 2015. 0.85
[32] B. Chen, X. Liu, H. Zhao, and J. C. Pr´ıncipe, “Maximum correntropy B. Chen, X. Liu, H. Zhao, and J. C. Pr ́ıncipe, “Maximum correntropy” 0.87
Kalman filter,” Automatica, vol. kalman filter”(カルマンフィルター)、automatica、vol.1。 0.49
76, pp. 70 – 77, 2017. 76, pp。 70 – 77, 2017. 0.82
[33] R. He, B. Hu, W. Zheng, and X. Kong, “Robust principal component analysis based on maximum correntropy criterion,” IEEE Trans. [33] R. He, B. Hu, W. Zheng, X. Kong, “Robust principal component analysis based on maximum correntropy criterion, IEEE Trans。 0.85
Image Process., vol. Image Process., vol. 0.85
20, no. 6, pp. 20だ 6, pp。 0.59
1485–1494, 2011. 1485–1494, 2011. 0.84
[34] G. Xu, S. Du, and J. Xue, “Precise 2D point set registration using iterative closest algorithm and correntropy,” in 2016 International Joint Conference on Neural Networks (IJCNN), 2016, pp. G. Xu, S. Du, and J. Xue, “Precise 2D point set registration using iterative closest algorithm and correntropy” in 2016 International Joint Conference on Neural Networks (IJCNN), 2016 pp。
訳抜け防止モード: [34 ]G.Xu,S.Du,J.Xue 「反復的近接アルゴリズムとコレントロピーを用いた高精度2次元点集合登録」 2016 International Joint Conference on Neural Networks (IJCNN) に参加して 2016年、p。
0.84
4627–4631. 4627–4631. 0.71
[35] B. Chen, Z. Yuan, N. Zheng, and J. C. Pr´ıncipe, “Kernel minimum error B. Chen, Z. Yuan, N. Zheng, and J. C. Pr ́ıncipe, “カーネル最小誤差” 0.84
entropy algorithm,” Neurocomputing, vol. エントロピーアルゴリズム”、neurocomputing, vol. だ。 0.71
121, pp. 160 – 169, 2013. 121, pp。 160 – 169, 2013. 0.83
[36] B. Chen, R. Ma, S. Yu, S. Du, and J. Qin, “Granger causality analysis based on quantized minimum error entropy criterion,” IEEE Signal Process. [36] b. chen, r. ma, s. yu, s. du, j. qin, “granger causality analysis based based on quantized minimum error entropy criterion” ieee signal process。 0.77
Lett., vol. Lett., vol. 0.85
26, no. 2, pp. 347–351, 2019. 26だ 2、p。 347–351, 2019. 0.61
[37] I. Park and J. C. Principe, “Correntropy based Granger causality,” in 2008 IEEE International Conference on Acoustics, Speech and Signal Processing, 2008, pp. [37]I。 Park and J. C. Principe, “Correntropy based Granger causality” in 2008 IEEE International Conference on Acoustics, Speech and Signal Processing, 2008 pp. 0.81
3605–3608. 3605–3608. 0.71
[38] E. Parzen, “On estimation of a probability density function and mode,” [38] e. parzen, “on estimation of a probability density function and mode” 0.82
Ann. Math. Statist., vol. Ann 数学。 統計官、vol. 0.63
33, no. 3, pp. 33、ノー。 3、p。 0.69
1065–1076, 09 1962. 1065–1076, 09 1962. 0.88
[39] Y. Zheng, S. Wang, Y. Feng, W. Zhang, and Q. Yang, “Convex combination of quantized kernel least mean square algorithm,” in 2015 Sixth International Conference on Intelligent Control and Information Processing (ICICIP), 2015, pp. [39] y. zheng, s. wang, y. feng, w. zhang, q. yang, “convex combination of quantized kernel least mean square algorithm” in 2015 sixth international conference on intelligent control and information processing (icicip), 2015 pp。 0.75
186–190. [40] D. L. D.S. 186–190. 40] d. l. d.s. 0.73
Broomhead, “Multivariable functional Broomhead, “Multivariable functional” 0.97
interpolation and adaptive networks,” Complex Systems, vol. 補間と アダプティブネットワーク(adaptive networks)”, complex systems, vol. 。 0.71
2, pp. 3191–3215, 1988. 2、p。 3191–3215, 1988. 0.73
[41] D. Lowe, “Adaptive radial basis function nonlinearities, and the problem of generalisation,” in First IEE International Conference on Artificial Neural Networks, 1989, pp. 41] d. lowe, "adaptive radial basis function nonlinearities, and the problem of generalization" in first iee international conference on artificial neural networks, 1989, pp。 0.74
171–175. [42] W. Y. Deng, Y. S. Ong, and Q. H. Zheng, “A fast reduced kernel extreme 171–175. [42] w. y. deng, y.s. ong, q. h. zheng, “a fast reduced kernel extreme” 0.76
learning machine,” Neural. とNeuralは言う。 0.46
Netw., vol. 76, pp. に登場。 76, pp。 0.50
29–38, 2016. 29–38, 2016. 0.84
[43] M. Singhal and S. Shukla, “Centroid selection in kernel extreme learning machine using k-means,” in 5th International Conference on Signal Processing and Integrated Networks (SPIN), Conference Proceedings, pp. 43] m. singhal,s. shukla, “centroid selection in kernel extreme learning machine using k-means” in 5th international conference on signal processing and integrated networks (spin), conference proceedings, pp. 0.82
708–711. [44] Z. Qin, B. Chen, Y. Gu, N. Zheng, and J. C. Principe, “Probability density rank-based quantization for convex universal learning machines,” IEEE Trans. 708–711. [44] Z. Qin, B. Chen, Y. Gu, N. Zheng, J. C. Principe, “Probability density rank-based Quantization for convex universal learning machines”, IEEE Trans。 0.82
Neural Netw. Learn. ニューラルネット。 学ぶ。 0.57
Syst., vol. Syst., vol. 0.85
31, no. 8, pp. 31, No. 8, pp。 0.81
3100–3113, 2020. 3100–3113, 2020. 0.84
[45] Y. H. Pao and Y. Takefuji, “Functional-link net computing: Y. H. Pao, Y. Takefuji, “Functional-link net computing: 0.82
theory, system architecture, and functionalities,” Computer, vol. 理論、システムアーキテクチャ、機能”、とComputer, vol。 0.70
25, no. 5, pp. 25だ 5, pp。 0.59
76–79, 1992. 76–79, 1992. 0.84
[46] G. Huang, H. Zhou, X. Ding, and R. Zhang, “Extreme learning machine for regression and multiclass classification,” IEEE Trans. G. Huang, H. Zhou, X. Ding, R. Zhang, “Extreme learning machine for regression and multiclass classification”, IEEE Trans。 0.76
Syst. Man Cybern. シスト。 サイバーマン。 0.58
Part B, vol. 42, no. 第b部、第2部。 42、ノー。 0.57
2, pp. 513–529, April 2012. 2、p。 513-529, 2012年4月。 0.58
[47] C. L. P. Chen and Z. Liu, “Broad learning system: An effective and efficient incremental learning system without the need for deep architecture,” IEEE Trans. C.L.P. Chen氏とZ. Liu氏は,“ブロードラーニングシステム:ディープアーキテクチャを必要としない,効率的かつ効率的なインクリメンタルラーニングシステム”と説明している。
訳抜け防止モード: 47 ] c. l. p. chen, z. liu, "広範学習システム : ディープアーキテクチャを必要としない効率的かつ効率的なインクリメンタル学習システム" ieee trans所属。
0.78
Neural Netw. Learn. ニューラルネット。 学ぶ。 0.57
Syst., vol. Syst., vol. 0.85
29, no. 1, pp. 10–24, 2018. 29歳。 1、p。 10–24, 2018. 0.66
[48] R. P. Agarwal, M. Meehan, and D. O’Regan, Fixed Point Theory and [48] R. P. Agarwal, M. Meehan, D. O'Regan, Fixed Point Theory and and 0.98
Applications. Cambridge, U.K.: Cambridge University Press, 2001. アプリケーション。 ケンブリッジ大学出版局、2001年。 0.60
[49] B. Chen, J. Wang, H. Zhao, N. Zheng, and J. C. Principe, “Convergence of a fixed-point algorithm under maximum correntropy criterion,” IEEE Signal Process. B. Chen, J. Wang, H. Zhao, N. Zheng, J. C. Principe, “Convergence of a fixed-point algorithm under maximum correntropy criterion”, IEEE Signal Process。
訳抜け防止モード: [49 ]B. Chen, J. Wang, H. Zhao, N. Zheng, J. C. Principe, “Convergence of a fixed-point algorithm under maximum correntropy criterion, ” IEEE Signal Process.
0.98
Lett., vol. Lett., vol. 0.85
22, no. 10, pp. 22歳。 10, pp。 0.62
1723–1727, 2015. 1723–1727, 2015. 0.84
[50] A. R. Heravi and G. A. Hodtani, “A new robust fixed-point algorithm and its convergence analysis,” J. A. R. Heravi and G. A. Hodtani, “A new robust fixed-point algorithm and its convergence analysis, J。 0.83
Fixed Point Theory Appl., vol. 固定点理論appl., vol. 0.75
19, no. 4, pp. 19号室だ 4, pp。 0.63
3191–3215, 2017. 3191–3215, 2017. 0.84
[51] Y. d. Valle, G. K. Venayagamoorthy, S. Mohagheghi, J. Hernandez, and R. G. Harley, “Particle swarm optimization: Basic concepts, variants and applications in power systems,” IEEE Transactions on Evolutionary Computation, vol. Y. d. Valle, G. K. Venayagamoorthy, S. Mohagheghi, J. Hernandez, R. G. Harley, “Particle Swarm Optimization: Basic concept, variants and application in power systems”, IEEE Transactions on Evolutionary Computation, Vol. 0.86
12, no. 2, pp. 171–195, 2008. 12だ 2、p。 171–195, 2008. 0.62
[52] D. Dua and C. Graff, “UCI machine learning repository,” 2017. 52] d. dua, c. graff, “uci machine learning repository” 2017年。 0.73
[Online]. Available: http://archive.ics.u ci.edu/ml [オンライン] 利用可能: http://archive.ics.u ci.edu/ml 0.54
                       ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。