# (参考訳) 量子減算クラスタリングに基づく適応型神経ファジィネットワーク [全文訳有]

Adaptive Neuro Fuzzy Networks based on Quantum Subtractive Clustering ( http://arxiv.org/abs/2102.00820v1 )

ライセンス: CC BY 4.0
Ali Mousavi, Mehrdad Jalali and Mahdi Yaghoubi(参考訳) データマイニング技術は,データの探索と解析によって有用なパターンの探索に利用することができ,ファジィ分類規則を機械学習ツールと相乗的に組み合わせることで,TSKファジィ型適応型ニューロファジィネットワークと量子サブトラクティブクラスタリングの改善が図られている。 量子クラスタリング(Quantum clustering, QC)は、シュロディンガーポテンシャルと時間消費勾配法を用いる量子力学の直観である。 QCの原理的優位性と欠点を解析し,その欠点に基づき,減算クラスタリング法による改良アルゴリズムを提案する。 クラスタセンターはファジィルールの前提部分として利用できるデータの本質的特徴を持つ一般的なモデルであり, 量子サブトラクティブクラスタリングに基づくAnfiは, 優れた近似と一般化能力を有し, 従来の手法と比較してファジィルールの数やネットワーク出力精度が著しく低下することが実験的に明らかになった。

Data mining techniques can be used to discover useful patterns by exploring and analyzing data and it's feasible to synergitically combine machine learning tools to discover fuzzy classification rules.In this paper, an adaptive Neuro fuzzy network with TSK fuzzy type and an improved quantum subtractive clustering has been developed. Quantum clustering (QC) is an intuition from quantum mechanics which uses Schrodinger potential and time-consuming gradient descent method. The principle advantage and shortcoming of QC is analyzed and based on its shortcomings, an improved algorithm through a subtractive clustering method is proposed. Cluster centers represent a general model with essential characteristics of data which can be use as premise part of fuzzy rules.The experimental results revealed that proposed Anfis based on quantum subtractive clustering yielded good approximation and generalization capabilities and impressive decrease in the number of fuzzy rules and network output accuracy in comparison with traditional methods.
公開日: Tue, 26 Jan 2021 20:59:48 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。


    Page: /      
176 Int’l Conf. 176 Int’l Conf。 0.77
Data Mining | DMIN’11 | データマイニング|DMIN’11! 0.69
Adaptive Neuro Fuzzy Networks based on Quantum Subtractive 量子サブトラクティブに基づく適応型神経ファジィネットワーク 0.82
Clustering Ali Mousavi*, Mehrdad Jalali and Mahdi Yaghoubi クラスタリング Ali Mousavi*, Mehrdad Jalali and Mahdi Yaghoubi 0.73
 is an and  は アン そして 0.71
type with TSK tools 型 と TSK 道具 0.70
fuzzy learning improved ファジィ 学習 改良 0.68
from and intuition potential そこから 直感的可能性 0.50
Abstract—Data mining 概要-データマイニング 0.47
techniques can be used to discover useful patterns by exploring and analyzing data andit’s feasible to synergistically combine machine to discover fuzzy classification rules.In this paper, an adaptive neuro fuzzy network quantum subtractive clustering has been developed. 技術は ファジィ分類規則を発見するために、機械を相乗的に組み合わせることが可能なデータ探索と分析によって有用なパターンを発見するために、適応型神経ファジィネットワーク量子サブトラクティブクラスタリングを開発した。 0.57
Quantum clustering (QC) uses an descent Schrödinger method. 量子クラスタリング(QC)は、降下シュレーディンガー法を用いる。 0.73
The principle advantage and is analyzedandbased on its shortcomings, an improved algorithm through a subtractive clustering method is proposed. 原理の利点とその欠点に基づいて分析され、減算クラスタリング法によるアルゴリズムの改善が提案される。 0.81
Cluster centers represent a general model with essential characteristics fuzzy rules.The of data which can be use as premise part of experimental on quantum approximation and generalization capabilities and impressive decrease in the number in comparison with traditional methods. クラスタセンターは, 基本特性ファジィ規則を持つ一般的なモデルであり, 量子近似および一般化能力の実験の前提部分として利用でき, 従来の手法と比較して顕著に減少する。 0.85
quantum mechanics time-consuming 時間を要する量子力学 0.68
results subtractive revealed clustering 減算的結果 クラスタリングが明らかに 0.61
shortcoming of QC proposed Anfis QCの欠点 anfisの提案 0.75
accuracy gradient network 精度 勾配 ネットワーク 0.71
yielded output yielded~ 出力 0.73
which based fuzzy つまり ベース ファジィ 0.58
rules good that and 規則 よし あれ そして 0.68
of Index Terms—quantum ですから 索引 用語 - 量子 0.53
clustering, subtractive クラスタリング。 subtractive~ 0.61
clustering, fuzzy rules, Anfis. クラスタリング。 ファジィルール、Anfis。 0.57
last I. INTRODUCTION has decade seen collection and 最後に 私。 序文には10年分のコレクションと 0.63
T in growth the he data in advances generation mining and automation of predictor systems. 成長中のHeデータは、生成マイニングと予測システムの自動化を進めます。 0.78
Hence a lot of and new automatically useful knowledge have been proposed. そのため、多くの新しい有用な知識が提案されている。 0.71
explosive an of data, tools that transforming 爆発的なデータだ 変形する道具は 0.63
intelligently data into インテリジェントなデータ 0.66
and assist in can this 支援し これ できる? 0.55
techniques the concepts of An Adaptive Neuro Fuzzy Inference System (ANFIS) is a framework based on fuzzy systems which have been improved by artificial neural networks. 技法 概念は Adaptive Neuro Fuzzy Inference System (ANFIS)は、人工ニューラルネットワークによって改善されたファジィシステムに基づくフレームワークである。 0.70
So Anfis tries to integrate advantages of fuzzy systems and artificial that neural networks the present a to fuzzy fuzzy systems provide a connectionist structure. そこでAnfisは、ファジィシステムと人工ニューラルネットワークの利点を統合することで、ファジィなファジィシステムはコネクショナリスト構造を提供する。 0.73
Moreover framework work the uncertain world [1, 2]. さらにフレームワークは不確実な世界[1, 2]を働かせます。 0.67
This means capabilities これは能力を意味します 0.50
networks. learning ネットワーク。 学習 0.71
neural systems knowledge human with 神経系 知識 人間 と 0.69
and via to Methods of data clustering are usually based on geometric or probabilistic considerations. そして via へ データクラスタリングの手法は通常、幾何学的あるいは確率論的考察に基づいている。 0.71
The problem of unsupervised learning of in data データにおける教師なし学習の問題 0.77
locations of points clusters based on 点の位置 クラスタベース 0.60
*Ali Mousavi is with Department of Artificial ※アリ・ムサビ 人工的な部門とあります。 0.52
Intelligence, Faculty of Engineering, Mashhad Branch, Islamic Azad University,Mashhad, Iran. 情報学部 イランのマシュハドにあるイスラーム・アザド大学マシュハド・ブランチの工学。 0.49
(E-mail: mousavi@mshdiau.ac.i r). (メール: mousavi@mshdiau.ac.i r) 0.78
Mehrdad Jalali Mehrdad ジャラリ 0.70
Intelligence, Assistant Professor (PhD),Mashhad Branch, Islamic Azad University, Mashhad, Iran. イランのマシュハドにあるイスラーム・アザド大学マシュハド支店で情報学、助教授(PhD)。 0.63
is with department of Artificial (E-mail: mehrdadjalali@ieee.o rg) Mahdi Yaghoubi is with department of Electrical Engineering, Assistant Professor (PhD),Mashhad Branch, IslamicAzad University, Mashhad, Iran. 人工の部署です (電子メール: mehrdadjalali@ieee.o rg) Mahdi Yaghoubiは、イランのマシュハドにあるイスラムアザド大学マシュハド支部の電気工学、助教授(PhD)と一緒です。 0.62
(E-mail: yaghoubi@mshdiau.ac. ir) (メール:yaghoubi@mshdiau.ac .ir) 0.75
leads fuzzy to generate adequate numbers of リード ファジィ 十分な数を生み出す 0.61
space is in general ill-defined [3, 6]. 空間は一般に不定義である[3, 6]。 0.82
Hence intuition based on other fields of study may be useful in formulating new lot of clustering methods heuristic procedures. したがって、他の研究分野に基づく直感は、新しい数のクラスタリング方法のヒューリスティックな手順を形成するのに有用である。 0.60
There are a which rules. The cluster centers represent a general model with essential characteristics of data. ルールがあります。 クラスタセンターは、データの本質的な特性を持つ一般的なモデルを表します。 0.64
Each as premise part of a fuzzy rule [2, 6]. ファジィルール[2, 6]の前提部分としてそれぞれ。 0.64
Here we use a model based on The new ここでは、新しいモデルを使用します。 0.83
that are borrowed clustering from introduced clustering method that is an extension of idea inherent to scale-space and support-vector clustering. これらは、スケールスペースとサポートベクトルクラスタリングに固有のアイデアの拡張である、導入されたクラスタリングメソッドから借りたクラスタリングです。
訳抜け防止モード: 導入したクラスタリング法から借りたものです スケール - 空間とサポート - ベクトルクラスタリングに固有のアイデアの拡張です。
In addition, this is represented by function that can analytically be derived from a probability function. さらに、これは確率関数から解析的に導出できる関数によって表される。 0.80
The effectiveness of this clustering has been demonstrated on pattern recognition [1, 3]. このクラスタリングの有効性はパターン認識 [1, 3] で実証されている。 0.83
the Schrödinger equation, which シュレーディンガー方程式(Schrödinger equation) 0.67
mechanics. is a メカニックス aです 0.64
quantum and unique is a potential 量子とユニークな 可能性があり 0.70
can be use by Horn 使えるのです by Horn 0.77
quantum cluster 量子 cluster 0.82
center tools [3] i 中心 道具 [3] 私は 0.70
i 4 9 h C 私は 4 9 H C 0.77
a a u あ... あ... ウ 0.30
to Also Nonetheless (QC) method へ また それでも (QC)方法 0.67
the Quantum Clustering has some drawbacks. 量子クラスタリング 欠点があります 0.54
It is difficult to determine the number of valid cluster centers, because this QC severely depends on a one-variable parameter representing the scale of its Gaussian kernel, and it is hard to deal with a high dimension of input space so QC method is modified in a simple manner [1, 3]. このQCはガウスカーネルのスケールを表す1変数パラメータに大きく依存するため、有効なクラスタセンターの数を決定することは困難であり、入力空間の高い次元に対処することは困難であるため、QC方法は単純な方法で変更されます[1, 3]。 0.84
used to determine the adequate number of cluster centers. クラスタセンターの数を決定するのに使われます。 0.70
This is a density based n 1 [ 7 これは密度ベース n 1 [ 7] である 0.92
clustering method has been クラスタリング手法は 0.54
that proposed by subtractive 提案された subtractive~ 0.72
clustering 9 ] . クラスタリング 9 ] 0.55
Therefore we propose (MPG) そのため。 提案 (MPG) 0.72
learning a hybrid construct 学習 ハイブリッド 建設 0.57
new method an adaptive neuro fuzzy network with a TSK fuzyy type. 新しい方法 TSKファジータイプの適応型神経ファジィネットワーク。 0.70
Also we use a modified QC to determine the premise part of fuzzy rules. また,修正されたqcを用いてファジィルールの前提部分を決定する。 0.67
Moreover subtractive clustering method is applied to determine the optimal number of clusters. さらに,クラスタの最適数を決定するために,サブトラクションクラスタリング法を適用した。 0.72
We performed a scheme using back learning method by (LSE). バックラーニング法(LSE)を用いたスキームを実施した。 0.75
The propagation mile-perexperiments gallon of 392 records. 伝搬マイル実験ガロンは392レコードである。 0.73
In this example, six input variables are composed of a car’s cylinder number, displacement, horsepower, weight, acceleration, be predicted by the six input variables is the fuel consumption of the automobile. この例では、6つの入力変数は、車のシリンダー番号、変位、馬力、重量、加速で構成され、6つの入力変数によって予測されるのは、自動車の燃料消費量です。 0.75
is least-square estimator automobile well-known dataset which consists は 最小二乗推定器自動車よく知られたデータセット。 0.60
(BP) and a used the prediction (BP)とそれを用いた予測 0.89
II, we describe basics of Anfis. II、Anfisの基本について説明します。 0.57
The Quantum Clustering method, our modified Quantum clustering and subtractive clustering are presentedin IV gives theexperimental in sectionV. The Quantum Clustering method, our modified Quantum clustering and subtractive clustering are presentedin IV give theexperimental in sectionV。 0.79
section results. Finally, we conclude セクションの結果。 最後に結論づけます 0.76
followed Section and model year. 次節 そしてモデル 年だ 0.61
The organized the paper あらすじ 組織 紙は 0.55
follows: variable 以下です variable 0.71
III and section IIIと セクション 0.76
output paper This as 出力 紙 これ として 0.71
In to 内 へ 0.62
177 Int’l Conf. 177 Int’l Conf。 0.77
Data Mining | DMIN’11 | データマイニング|DMIN’11! 0.69
II. BASICS OF ANFIS II。 アンフィスの基礎 0.64
al 1) .In this アル 1) .in これ 0.68
that two from あれ 二 from ~ 0.70
curse fuzzy shown 呪い ファジィ 示します 0.63
system instead ANFIS システム 代わりに ANFIS 0.77
phases: involves andlinear 段階: 関係する アンドリニア 0.47
in Fig 1, scatter one 図1に示す。 散り散る 0.70
identification a neuro-fuzzy 識別 neuro‐fuzzy 0.76
coefficients. As this paper we use 係数。 として この論文は 0.50
section, we describe セクション 説明します 0.59
suffers extracted Anfis the number of 抽出された anfis (複数形 anfis) 0.56
[2]. Nevertheless the is a neuro-fuzzy system developed byJang[2]. [2]. それでも Jang[2]によって開発された神経ファジィシステムである。 0.65
It has a feed-forward neural networkstructure where each layer is the basic architecture, and learning rules of the Anfis. フィードフォワードニューラルネットワーク構造を持ち、各レイヤが基本的なアーキテクチャであり、Anfisの学習ルールです。 0.66
The Anfis structure structure identification and 2) parameter identification. Anfis構造構造識別および2)パラメータ識別。 0.71
The former is related to determining the number of fuzzy if–then rules and a proper partition of the input space. 前者はファジィ if- then ルールの数と入力空間の適切な分割を決定することに関係している。 0.76
The latter is concerned with the learning of model parameters, such as membership functions this network is composed of five layers that introduced by Jang of et dimensionality rules increases exponentially due to grid partitioning of input data. 後者は、このネットワークは、入力データのグリッド分割によって指数関数的に増加するet次元規則のジャンによって導入された5つの層で構成されているメンバーシップ機能などのモデルパラメータの学習に関連しています。 0.73
In find adequate through new proposed clustering method. 新たに提案するクラスタリング手法により、適切に探索する。 0.58
rules number of common first order Sugeno Fuzzy model zero For and a as rules are following Consider the Anfis model has n inputs[1, 4]. rule number of common first order Sugeno Fuzzy model zero For and a as rule is following Anfis model has n inputs[1, 4] を考える。 0.77
Here in the th fuzzy rule. ここではファジィルールです。 0.64
Also duty of each layer in the following briefly: Layer 1, the first layer of this network involves nodes links. レイヤ1 このネットワークの最初のレイヤには、ノードリンクが含まれます。
訳抜け防止モード: また、以下の各層の義務を簡潔に述べる。 レイヤ1 このネットワークの第1層は、ノードリンクを含む。
The which has a membership strength output of rule. ルールの会員の強さの出力があるもの。 0.69
A Gaussian membership associated proposition of parameters is function these parameters obtain from clustering phase. パラメータのガウスメンバーシップ関連命題は、これらのパラメータがクラスタリングフェーズから得られる関数である。 0.69
the linguistic value from the th input variable is a constant. th入力変数からの言語値は定数である。 0.67
Now we describe function as weight of ここで説明します 重量として機能する 0.59
firing a respectively. 発砲する それぞれ。 0.63
determines premise where 決める 前提 どこに 0.64
used with part two the 使用 と 一部 二 はあ? 0.58
of to Layer 2, each node in Layer 2 provides the firing strength of the rule by means of multiplication operator. ですから へ レイヤ2 レイヤ2の各ノードは、乗算演算子によってルールの発射強度を提供する。 0.60
It performs AND operation. ( ) 動作と操作を行う。 ( ) 0.81
layer computes the gives according to the above equation. 層は上記の方程式に従って与を計算する。 0.66
the normalization in values 正規化 in value 0.73
this and Layer 3 the これと 層3 はあ? 0.56
is the multiplication of output は output (複数形 outputs) 0.66
the as product はあ? として 製品 0.55
strength of all rules according to the following equation. 以下の式に従って あらゆるルールの強さ。 0.79
layer which normalizesthe ∏ Every node input 正常化する層 ~各ノードの入力 0.77
∑ ̅̅̅ Where iscomputed ∑ どこで計算されますか? 0.52
is the in Layer is the in‐layer 0.65
firing 2. Node strength 発射2。 ノード 強さ 0.66
of the computes th the ですから 計算は ひょっとして 0.59
rule which ratio ofthe the ratio of the ~ 0.72
to of all the へ ですから 全部 はあ? 0.55
sum firing rules’ 合計 発射 ルール」 0.67
strength thrule’s strength. 強さ thruleの強さ。 0.70
Layer 4, everynode in the fourth layer computes a product operation (And) between thenormalized firing strength from layer 3 and consequentpart of corresponding rule. 第4層内の各ノードは、第3層からの正規化焼成強度と対応する規則の一部との積演算(And)を演算する。 0.80
It means output of strength of each rule. それぞれのルールの強さの出力を意味する。 0.72
Layer 5, layer aggregates all of incoming inputs.Here ̂ is the final predicted output of the network. レイヤ5は、全ての入力を集約し、ここでは、ネットワークの最終予測出力である。 0.73
single node of single node (複数形 single nodes) 0.39
̅̅̅ is shows firing という。 ショー 発射 0.62
firing layer that this 発射 層 あれ これ 0.70
this the ̂ ∑ ̅ of Because summation operator, defuzzification process. これ はあ? 和演算子(summation operator, defuzzification process)の略。 0.56
the overall we output don’t はあ? 全体的に アウトプットはしない 0.53
is need obtained to through a complicated 必要だ 取得 へ 複雑な方法で 0.69
Fig. 1.Anfis structure. フィギュア。 1.Anfis構造。 0.58
Quantum Clustering A. Clustering 量子クラスタリング A.クラスタリング 0.77
to the geometric procedure へ はあ? 幾何学 手順 0.59
the objects that several オブジェクトは いくつかは 0.63
or intuition [6]. We of study 直感や [6]. 研究の私たち。 0.57
set composed set + made 0.61
classifies clusters probabilistic based on クラスタを分類する 確率論に基づく 0.72
considerations other fields of is physicalabstract of similar objects.Methods of data clustering are usually based on can consider to formulating new clustering procedures. その他の分野 データクラスタリングの方法は、通常、新しいクラスタリング手順を定式化することに基づいています。 0.69
Quantum clustering from quantum [3] introduced by Horn is a novel method space mechanics research Hilbert in an expressed by Schrödinger is waveequation, solution the wave-function function. ホルンによって導入された量子 [3] からの量子クラスタリングは、シュレーディンガーによって表現された波動方程式のヒルベルトによる新しい方法である。 0.76
When they can work function by Schrödinger equation, which out the potential will determine the distribution of particle, and the cluster centers are the k minimum in the potential. シュレーディンガー方程式によって関数を機能させることができるとき、そのポテンシャルは粒子の分布を決定づけ、クラスター中心はポテンシャルのk最小となる。 0.76
According to the quantum less, and relatively stable, so we can treat this kind of particle as the and the associated clusters [5]. 量子は少なく、比較的安定であるため、この種の粒子を関連するクラスターとして扱うことができます[5]。 0.70
operator the is given, operator (複数形 operators) 0.62
then distribute data points データポイントを配布し 0.75
lowerpotential particle with centers, 低電位 粒子で センター 0.58
theory, vibrate 理論だ vibrate 0.76
cluster that cluster あれ 0.76
to In QC algorithm, wave function in equation (6)is used to describe the sample’s distribution and produce the estimator parameter of Parzen Window. へ QCアルゴリズムでは、(6)の方程式の波動関数を用いてサンプルの分布を記述し、Parzen Windowの推定パラメータを生成する。 0.75
178 Int’l Conf. 178 Int’l Conf。 0.77
Data Mining | DMIN’11 | データマイニング|DMIN’11! 0.69
⁄ ∑ Where is the th data point. ⁄ thデータポイントはどこにありますか。 0.70
In the QC algorithm, we use the k minima of Schrödinger centers. QCアルゴリズムでは、シュレーディンガーセンターのkミニマを使用します。 0.60
for (7), to determine the location of cluster potential This potential the Schrödinger equation is part of which is a solution. for (7) クラスターポテンシャルの位置を決定するために、このポテンシャルシュレーディンガー方程式は解の一部である。 0.66
( Where is the Hamiltonian, is the potential energy, is the energy eigenvalue and . (ハミルトンはどこで、潜在的なエネルギーであり、エネルギー固有値である。 0.72
When is positive ⁄ . definite, as Hence, follows: いつが正か? したがって、定義は次の通りです。 0.47
) ) 0.85
defined obtain is the 定義 取得 は はあ? 0.63
we The eigenvalue of Schrödinger’s equation is the lowest eigenfunctions ground state. 私たち シュレーディンガー方程式の固有値は、最も低い固有函数基底状態である。 0.66
Moreover, when the minima of are defined as the cluster centers, the assignments of data points to clusters are obtained by a gradient descent algorithm allowing auxiliary point follow dynamics as follows: さらに、クラスタ中心としてミニマが定義されるとき、クラスタへのデータポイントの割り当ては、補助点追従ダイナミクスを許容する勾配降下アルゴリズムによって得られる。 0.78
operator representing variables , 演算子 変数 , 0.71
the the of はあ? はあ? ですから 0.41
to Here is used as the pre-clusters, and is the learning rate [3]. へ ここでは、プレクラスタとして使われ、学習率[3]です。 0.66
B. The Modified QC proposed B。 あらすじ 修正QCの提案 0.64
defects. iterative solve to 欠陥だ 反復的な解決を 0.62
algorithm does but it learning turns seeks which アルゴリズムはそうする しかしit学習は 0.69
quantum a classic is QC some have It’s algorithm, clustering the gradient descent in to difficult find the iterative potential minimum. 量子 a 古典は qc であり、ある者はそのアルゴリズムを持ち、勾配降下をクラスタリングし、反復的ポテンシャルの最小値を見つけるのが困難である。
訳抜け防止モード: 量子 a 古典的な QC には It のアルゴリズムがある。 勾配降下をクラスタ化して 繰り返しポテンシャルを最小にする
the procedure Accordingly that effects on the number of cluster centers and cluster accuracy. その手順は、クラスタセンターの数とクラスタの精度に影響を及ぼす。 0.75
Furthermore the gradient descent is a time consuming method improves QC elimination of gradient descent procedure and using a subtractive clustering algorithm. さらに、勾配降下法は時間消費法であり、勾配降下法のQC除去を改善し、減算クラスタリングアルゴリズムを用いる。 0.75
The proposed method is illustrated as following: calculate the data samples according to (8) equation. 提案手法は以下の通りである:(8)方程式に従ってデータサンプルを計算する。 0.87
Second, use subtractive clustering explained in section C to obtain optimal number of cluster centers as parameter, . 第二に、セクションCで説明されているサブトラクティブクラスタリングを使用して、最適なクラスタセンター数をパラメータとして取得する。
訳抜け防止モード: 第2に,セクションCで説明されるサブトラクティブクラスタリングの利用 最適な数のクラスタセンターをパラメータとして取得する。
Third, the cluster centers are calculated through following stages: 1- Sort samples in vector by ascending. 第3に、クラスターの中心は次の段階によって計算されます:1-昇ることによるベクトルのソートサンプル。 0.62
2- procedure. above problems by 2- 手続きだ 問題点は 0.64
thassociated proposed potential さすがに 提案 potential 0.65
Choose cluster 選択 cluster 0.82
vector points vector ポイント 0.79
First, data first まずは。 データ まず 0.72
The for all あらすじ ですから 全部 0.54
of as centers. ですから として センター 0.48
Subtractive Clustering 減算的クラスタリング 0.63
C. Subtractive method belongs to density based method was improved by optimal c. 密度に基づく方法に属する減算法は、最適に改良された 0.69
an suggested proposed by Chiu is the mountain method, which of version proposed Yager obtain to and Filev use SC number of cluster centers. Chiuによって提案された提案は、Yagerが取得するバージョンとFilevがSC数のクラスタセンターを使用するマウンテンメソッドである。 0.72
[7]. Here we 1994. [7]. ここでは 1994. 0.76
Chiu in The SC algorithm assumes each data point is a potential collection of data pointincluster dimensional space. チウ で scアルゴリズムは、各データポイントがデータポイントインクラスタ次元空間の潜在的なコレクションであると仮定する。 0.67
Then calculate a density measure for data points as follows [1]: 次に、データポイントの密度尺度を下記のように計算する。 0.78
center. Consider a センター 考察 あ... 0.39
‖ ‖ ‖ ‖ 0.85
) ∑ ( is th data Where is a constant and point. ) s ( is th data where is a constant and point。 0.76
A data point with many neighboring data points will have a high density value. 隣接する多くのデータポイントを持つデータポイントは、高い密度値を持つ。 0.87
Thus, data points with a high value of potential are more suited to be the potential cluster centers. したがって、ポテンシャルの高いデータポイントは、潜在的なクラスタセンターとしてより適しています。 0.76
A data point with highest density value is selected as the first cluster center. 密度値の最も高いデータポイントを第1のクラスタセンターとして選択する。 0.83
Then the density measure for all of data points will be update by following equation: 次に、すべてのデータポイントの密度測度を次の式で更新する。 0.80
‖ ‖ ‖ ‖ 0.85
( Where and is center of selected cluster. (選択されたクラスタの中心と場所。) 0.79
The data points around the first cluster center will have reduced density measures. 第1クラスターセンター周辺のデータポイントは、密度測度を減少させる。 0.82
Thus, these data points never selected as the a sufficient number of cluster centers were obtained [5]. したがって、これらのデータポイントは、十分な数のクラスタセンターとして選択されることはなかった [5]。 0.76
) continues process center. ) 継続 プロセス センター 0.69
cluster until cluster それまで 0.73
next The IV. 次は あらすじ IV。 0.58
EXPERIMENTAL RESULT of are 実験結果 ですから は 0.56
use car’s 利用 car (複数形 cars) 0.59
(MPG) cylinder (MPG) シリンダー 0.75
variables clustering 変数 clustering~ 0.70
composed subtractive 構成 subtractive~ 0.61
a quantum quantum (複数形 quantums) 0.38
this paper we automobile mile-per-gallon この論文は ガロン当たりの自動車マイル 0.44
Generally effective partitioning of input space can reduce number of fuzzy rules and increase learning speed of Anfis. 一般に、入力空間の効果的な分割はファジィルールの数を減らし、anfisの学習速度を増加させる。
訳抜け防止モード: 一般に有効な入力空間分割はファジィルールの数を減らすことができる anfisの学習速度を高めます
In to determine fuzzy rules, and then a modified Anfis is applied the output. ファジィルールを決定するために、その出力に修正された anfis が適用される。 0.63
The experiments used the to data set to predict well-known prediction dataset which consists of 392 records. 実験では、392レコードからなるよく知られた予測データセットを予測するためにtoデータセットを使用した。
訳抜け防止モード: 実験はtoデータセットを使用しました よく予測する - 392レコードからなる既知の予測データセット。
In this example, six input number, displacement, horsepower, weight, acceleration, and model year. この例では、6つの入力番号、変位、馬力、重量、加速、およびモデル年。 0.81
The output variable input variables is the fuel consumption of the automobile. 出力変数の入力変数は自動車の燃料消費量である。 0.86
At first then we records with missing values has been eliminated, normalize data interval. 最初は値が足りないレコードが削除され、データ間隔が正規化されました。 0.59
Data set divided into two partition; train data and test data, according to even record and odd records from original dataset, respectively. データセットからのレコードと奇数レコードに応じて、それぞれ列車データとテストデータという2つのパーティションに分割されたデータセット。 0.81
Here we use training data set to construct and learn the model while test data is used to validate the model. ここでは、モデルの構築と学習にトレーニングデータセットを使用し、テストデータを使用してモデルを検証します。 0.77
centers by of find subtractive clustering, cluster centers. 中心 サブトラクティブ・クラスタリングや クラスタ・センターの発見によってです 0.71
Finally, we construct the Anfis model and efficient number of fuzzy rules will be generated. 最後に、Anfisモデルを構築し、ファジィルールの効率的な数を生成します。 0.70
Here we have obtained 20 rules. ここでは20のルールを得た。 0.72
The network output predicts the fuel consumption of automobile. ネットワーク出力は自動車の燃料消費量を予測する。 0.81
cluster then we use modified QC クラスタは 修正されたqcを使い 0.60
to be predicted by 予測する,予測する. 0.50
obtained number the six [0,1] 取得 番号 6人 [0,1] 0.67
first ( ) At to まず ( ) に へ 0.73
to is へ は 0.69
179 Int’l Conf. 179 Int’l Conf。 0.77
Data Mining | DMIN’11 | データマイニング|DMIN’11! 0.69
for is 0.0029 while it’s 0.0056 for previous method. ですから 0.0029ですが、以前の方法では 0.0056です。 0.63
It shows a considerable improvement in comparison with before. 前と比べてかなり改善されている。 0.71
our We QC new 私達 私たち QC 新しい 0.73
have model Quantum 持ってる モデル 量子 0.63
compared traditional Fig. 比較 伝統 フィギュア。 0.61
2(a) shows comparison Subtractive Clustering method with traditional QC applied in Anfis [1]. 2(a)比較を示す Anfis [1]で適用される従来のQCのサブトラクタティブクラスタリング方法。 0.85
the desired Here data. test data and vertical axis fuel consumption. 所望のデータです。 試験データと垂直軸燃料消費量 0.70
Also Fig the desired and また、所望の条件を満たそう。 0.31
results between test outputs and horizontal axis shows number of determines desired and model .2(b) shows comparison diagrams between our model outputs for test data set. テスト出力間の結果 水平軸は所望の値の数を示し、モデル .2(b) はテストデータセットのモデル出力の比較図を示します。 0.87
F A i e h o b s i r e u o p h e t t m d r b i a a g F A i e h o b s i r e u o p h e t t m d r b i a a g 0.85
o s n d e v e r p a a o s n d e v e r p a 0.78
t e d e l m e x c t e d e l m e x c 0.85
u . d h t o n o t i l です。 d h t o n o t i l 0.66
i A d s s y I A D s s y 0.82
. c n s e h t a h a n . c n s e h t a h a n 0.85
h u e s p , a h u e s p , a 0.85
i w p n l u t e e i w p n l u t e e 0.85
v t o a s t n v t o a s t n 0.85
m o p p i , f m o p p i である。 0.68
e i e r d s s o n E 私は r d s s o n である。 0.67
o u o r o s e d s e s d O u o r o s e d s e s d 0.81
t o e i d d p t o e i D -D 0.73
i o p t n a l I o p t n a l 0.81
s o e o m p s o e o m p 0.85
t r r l i t r r r l 私は 0.77
z n t z n t である。 0.66
h i t n H i t です n 0.78
2 f i t b 2 f 私は t b 0.74
i a t i 私は あ... t 私は 0.52
t w g . a t W g . あ... 0.69
s b e r h e e e s b e r h e e e 0.85
r (a) and test r (a) そして テスト 0.80
data in proposed (a) データ で 提案 (a) 0.77
(b) Fig. (b) フィギュア。 0.64
2.Approximation and generalizationcapabi lity in previous method (a) and proposed method (b). 2.前法(a)および提案法(b)における近似と一般化能力 0.73
Fig. 3 shows the root mean square error (RMSE) for both new and previous methods during 10 epochs respectively. フィギュア。 3 では,新しい手法と過去の手法の根平均二乗誤差 (RMSE) をそれぞれ 10 時間間隔で示す。 0.58
As Fig 3(a) there is lot of difference between test and train error rate, because of initial epochs of model, but it decreases gradually and reaches to a reasonable value in previous method. 図3(a)のように、モデルの初期のエポックのため、テストと列車のエラー率には多くの違いがあるが、徐々に減少し、以前の手法で妥当な値に達する。 0.77
The calculated average testing error for new method 新しい手法における平均テスト誤差の計算 0.84
in comparison with error rate エラー率と比較すると 0.84
the beginning shown, at 始まりは 示して に 0.69
is a 3.Comparison は あ... 3.比較 0.49
(b) Fig. the method (a) and previous method (b). (b)図。 a) の方法と、(b) の前の方法。 0.73
of RMSE in training rmseの で 訓練 0.64
V. CONCLUSION a TSK combined V。 結論 TSK 組み合わせ 0.64
with to an obtain to ~ a- + obtained 0.51
improved appropriate An Adaptive Neuro Fuzzy Network with quantum 適当に改善する 量子を用いた適応型神経ファジィネットワーク 0.70
fuzzy subtractive type clustering method of fuzzy rules is proposed. ファジィ規則のファジィ減算型クラスタリング法を提案する。 0.68
The subtractive clustering, a density based to determine number of cluster centers. サブトラクティブクラスタリング(subtractive clustering)は、クラスタセンターの数を決定する密度である。 0.78
is used algorithm, from quantum a modified Moreover applied quantum mechanics is centers. アルゴリズムが使われています 改良された量子力学は中心です 0.73
represent Cluster a essential characteristics of data which can be use as premise part of fuzzy of fuzzy rules and network accuracy. ファジィルールとネットワーク精度のファジィの前提部分として使用できるデータの基本特性としてクラスタを表現する。 0.80
Finally we construct our model to predict fuel consumption in MPG dataset. 最後に,MPGデータセットの燃費予測モデルを構築した。 0.74
an cluster general model with クラスタ・ジェネラル・モデル 0.58
clustering, to obtain impressive クラスタリングして 素晴らしい 0.54
decrease number number centers 減少 番号 番号 中心 0.73
caused rules. idea 原因 ルールだ 思想 0.62
in It The experimental results showed the proposed method has good capabilities compared with traditional one. で それ 実験の結果,提案手法は従来の手法に比べて優れた性能を示した。 0.73
Moreover our new quantum based subtractive clustering is more accurate and faster. さらに、新しい量子ベースの減算クラスタリングはより正確で高速です。 0.71
As approximation として approximation 0.66
generalization and 一般化 そして 0.67
180 Int’l Conf. 180 Int’l Conf。 0.80
Data Mining | DMIN’11 | データマイニング|DMIN’11! 0.69
result, the from clustering improve our model undoubtedly. 結果だ クラスタリングは間違いなく私たちのモデルを改善します 0.68
obtained fuzzy rules 取得 ファジィ 規則 0.66
quantum based Our 量子 ベース 我々の 0.66
in our is is future work で 私達 は は 今後の仕事 0.69
subtractive clustering method with fuzzy quantum subtractive clustering approach to increase the accuracy of method and deal with real a solution. ファジィ量子減算クラスタリングアプローチによる減算クラスタリング法は、方法の精度を高め、真の解に対処する。 0.76
replacing hard quantum ハード量子を置き換える 0.80
problems concept where world 問題 概念 どこに 世界 0.75
fuzzy REFERENCES [1] ファジィ 参考 [1] 0.63
[2] [3] [4] [2] [3] [4] 0.85
[5] [6] [7] [5] [6] [7] 0.85
K. Sung-Suk and K. Keun-Chang, "Development of Quantum-Based Adaptive Neuro-Fuzzy Networks",Systems, Man, and Cybernetics, Part B: Cybernetics, IEEE Transactions on, vol. K.Sung-Suk and K. Keun-Chang, "Development of Quantum-Based Adaptive Neuro-Fuzzy Networks", Systems, Man, and Cybernetics, Part B: Cybernetics, IEEE Transactions on, vol. 0.91
40, pp. 91-100, 2010. 40, pp。 91-100, 2010. 0.82
Jang, et al., Neuro-Fuzzy and Soft Computing. Jang, et al., Neuro-Fuzzy and Soft Computing 0.86
Massachusetts, USA: Prentice Hall, 1997. マサチューセッツ州プレンティス・ホール、1997年。 0.52
D. Horn and A. Gottlieb,"The Method of Quantum Clustering", Tel Aviv University, Tel Aviv 69978, Israel M. B. Menhaj, Fundamental of Neural Networks. D. Horn and A. Gottlieb "The Method of Quantum Clustering", Tel Aviv University, Tel Aviv 69978, Israel M. B. Menhaj, fundamental of Neural Networks. (英語) 0.96
University of Amir Kabir,Tehran, IRAN, 2003. アミール・カビル大学、テヘラン、IRAN、2003年。 0.74
Y. Zhang, et al , "Quantum Clustering Algorithm based on Exponent Measuring Modeling Workshop, IEEE International Symposium on, pp. Y. Zhang, et al, "Quantum Clustering Algorithm based on Exponent Measuring Modeling Workshop, IEEE International Symposium on, pp。 0.85
436-439, 2008. 436-439, 2008. 0.84
R.O. Duda, P.E. R.O。 ダダ、P.E。 0.64
Hart and D.G. Stork, Pattern Classification. ハートとD.G. Stork、パターン分類。 0.71
WileyInterscience, 2001. Wiley Interscience、2001年。 0.76
D.-W. Kim, et al., "A kernel-based Pattern Recognition Letters, vol. D.-W. Kim, et al., "A kernel-based Pattern Recognition Letters, vol。 0.85
26, pp. 879-891, 2005. 26, pp。 879-891, 2005. 0.82
subtractive clustering method", subtractive clustering method" 0.66
Acquisition Knowledge Distance", 買収 知識 距離」。 0.64
and in そして で 0.72

翻訳にはFugu-Machine Translatorを利用しています。