論文の概要、ライセンス

# (参考訳) 正規化周波数による特徴選択の簡潔化 [全文訳有]

A concise method for feature selection via normalized frequencies ( http://arxiv.org/abs/2106.05814v1 )

ライセンス: CC BY 4.0
Song Tan, Xia He(参考訳) 特徴選択は、機械学習モデルを構築する上で重要な部分である。 データから冗長あるいは誤解を招く機能を排除することによって、機械学習モデルは、計算リソースの需要を減らしながら、より良いパフォーマンスを達成することができる。 メタヒューリスティックアルゴリズムは主に、Swarmインテリジェンスアルゴリズムや進化アルゴリズムのような特徴選択を実装するために使用される。 しかし、それらは相対的な複雑さと遅さの欠点に苦しんでいる。 本稿では,普遍的特徴選択のための簡潔な手法を提案する。 提案手法はフィルタ法とラッパー法の融合を利用したものである。 この方法は、データセットを前処理するためにワンホットエンコーディングを使用し、ランダムフォレストを分類器として利用する。 提案手法では、正規化周波数を用いて各特徴に値を割り当て、最適な特徴部分集合を見つける。 さらに,実験の出発点として,相互情報の出力を活用する新しい手法を提案する。 提案手法の評価には,侵入検出分野における実世界の2つのデータセットを用いた。 評価の結果,提案手法は精度,精度,リコール,f-score,aucの点で最先端関連作品よりも優れていた。

Feature selection is an important part of building a machine learning model. By eliminating redundant or misleading features from data, the machine learning model can achieve better performance while reducing the demand on com-puting resources. Metaheuristic algorithms are mostly used to implement feature selection such as swarm intelligence algorithms and evolutionary algorithms. However, they suffer from the disadvantage of relative complexity and slowness. In this paper, a concise method is proposed for universal feature selection. The proposed method uses a fusion of the filter method and the wrapper method, rather than a combination of them. In the method, one-hoting encoding is used to preprocess the dataset, and random forest is utilized as the classifier. The proposed method uses normalized frequencies to assign a value to each feature, which will be used to find the optimal feature subset. Furthermore, we propose a novel approach to exploit the outputs of mutual information, which allows for a better starting point for the experiments. Two real-world dataset in the field of intrusion detection were used to evaluate the proposed method. The evaluation results show that the proposed method outperformed several state-of-the-art related works in terms of accuracy, precision, recall, F-score and AUC.
公開日: Thu, 10 Jun 2021 15:29:54 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
1 2 0 2 n u J 1 2 0 2 n u J 0.85
0 1 ] G L . 0 1 ] G L。 0.81
s c [ 1 v 4 1 8 5 0 sc [ 1 v 4 1 8 5 0 0.68
. 6 0 1 2 : v i X r a . 6 0 1 2 : v i X r a 0.85
A concise method for feature selection via normalized frequencies 正規化周波数による特徴選択の簡潔化 0.70
Tan Songa, Xia Heb Tan Songa, Xia Heb 0.85
aXihua University bXihua University aXihua大学 bXihua大学 0.81
Abstract Feature selection is an important part of building a machine learning model. 抽象的特徴選択は、機械学習モデルを構築する上で重要な部分である。 0.74
By eliminating redundant or misleading features from data, the machine learning model can achieve better performance while reducing the demand on computing resources. データから冗長あるいは誤解を招く機能を排除することによって、機械学習モデルは、コンピューティングリソースの需要を減らしながら、よりよいパフォーマンスを達成することができる。 0.66
Metaheuristic algorithms are mostly used to implement feature selection such as swarm intelligence algorithms and evolutionary algorithms. メタヒューリスティックアルゴリズムは主に、Swarmインテリジェンスアルゴリズムや進化アルゴリズムのような特徴選択を実装するために使用される。
訳抜け防止モード: メタヒューリスティックアルゴリズムは主に使用される Swarmインテリジェンスアルゴリズムや進化アルゴリズムのような特徴選択を実装する。
0.79
However, they suffer from the disadvantage of relative complexity and slowness. しかし、それらは相対的な複雑さと遅さの欠点に苦しんでいる。 0.56
In this paper, a concise method is proposed for universal feature selection. 本稿では,普遍的特徴選択のための簡潔な手法を提案する。 0.76
The proposed method uses a fusion of the filter method and the wrapper method, rather than a combination of them. 提案手法はフィルタ法とラッパー法の融合を利用したものである。 0.55
In the method, one-hoting encoding is used to preprocess the dataset, and random forest is utilized as the classifier. この方法は、データセットを前処理するためにワンホットエンコーディングを使用し、ランダムフォレストを分類器として利用する。
訳抜け防止モード: という方法の1つ ホットエンコーディングはデータセットの事前処理に使用される。 ランダムフォレストを分類器として利用します
0.64
The proposed method uses normalized frequencies to assign a value to each feature, which will be used to find the optimal feature subset. 提案手法では、正規化周波数を用いて各特徴に値を割り当て、最適な特徴部分集合を見つける。
訳抜け防止モード: 提案手法は正規化周波数を用いる。 それぞれの機能に値を割り当て、最適な機能サブセットを見つけるために使用される。
0.80
Furthermore, we propose a novel approach to exploit the outputs of mutual information, which allows for a better starting point for the experiments. さらに,実験の出発点として,相互情報の出力を活用する新しい手法を提案する。
訳抜け防止モード: さらに,新しいアプローチを提案する。 相互情報の出力を活用することで、実験の出発点がより良くなります。
0.72
Two real-world dataset in the field of intrusion detection were used to evaluate the proposed method. 提案手法の評価には,侵入検出分野における実世界の2つのデータセットを用いた。 0.71
The evaluation results show that the proposed method outperformed several state-of-the-art related works in terms of accuracy, precision, recall, F-score and AUC. 評価の結果,提案手法は精度,精度,リコール,f-score,aucの点で最先端関連作品よりも優れていた。 0.70
Keywords: Feature selection, One-hot encoding, Mutual information, Random forest, PCA キーワード:特徴選択、ワンホット符号化、相互情報、ランダムフォレスト、PCA 0.83
1. Introduction With the gradual expansion of feature space, it is more and more difficult for people to recognize feature space (Bontempi, 2005). 1. はじめに 特徴空間の段階的拡大により、人々が特徴空間を認識することはますます困難になっている(Bontempi, 2005)。 0.73
The irrelevant or misleading features will degrade the performance of the classifier. 無関係あるいは誤解を招く機能は、分類器のパフォーマンスを低下させる。 0.62
The emergence of feature selection has turned these problems around. 機能選択の出現によって、これらの問題が逆転した。 0.61
To solve these problems, feature selection is used to improve the performance of the classifier by removing the irrelevant and misleading features from original features. これらの問題を解決するために、特徴選択を用いて、原特徴から無関係で誤解を招く特徴を取り除き、分類器の性能を向上させる。
訳抜け防止モード: これらの問題を解決する。 特徴選択は 分類器の性能を向上させる 元の特徴から無関係で誤解を招く特徴を取り除き
0.85
(Guyon and Elisseeff, 2003). (Guyon and Elisseeff, 2003)。 0.77
Feature selection is helpful to reduce the dimension of feature space, which can reduce the computational cost, improve the performance of classifier and restrain the occurrence of over fitting. 特徴の選択は特徴空間の次元を減らすのに役立ち、計算コストを削減し、分類器の性能を改善し、重ね合わせの発生を抑制することができる。 0.83
The design of feature selection methods is to select better features that allow the classifier to achieve better performance while reducing the demand on computing resources (Li and Liu, 2017). 特徴選択手法の設計は、コンピューティングリソースの需要を削減しつつ、分類器の性能向上を可能にする優れた機能を選択することである(li and liu, 2017)。 0.81
The filter method and the wrapper method are two main feature selection motheds (Zhang et al , 2019). フィルタメソッドとラッパーメソッドは2つの主要な特徴選択モセド(zhang et al , 2019)である。 0.83
The former ranks features and selects the best part of features as final feature subset. 前者は特徴をランク付けし、機能の最良部分を最終機能サブセットとして選択する。 0.70
Mathematical methods are mostly used to measure the relationship between each feature and label. 数学的手法は主に各特徴とラベルの関係を測定するために用いられる。 0.81
An evaluation value is calculated to each feature, which is used to rank the features (Yu and Liu, 2003). 評価値は各特徴に対して算出され、特徴のランク付けに使用される(Yu and Liu, 2003)。 0.87
The wrapper method sorting the feature subsets, the best one is as the final feature subset. 機能サブセットをソートするラッパーメソッドは、最後の機能サブセットとして最適です。 0.67
The feature subsets are generated by the method and an evaluation value obtained by the classifier is used to rank the feature subsets (Kohavi and John, 1997). 特徴サブセットはメソッドによって生成され、分類器によって得られた評価値は特徴サブセットのランク付けに使用される(kohavi and john, 1997)。 0.80
The metaheuristic algorithms are proposed for the optimization problems (Chuang et al , 2008). 最適化問題に対してメタヒューリスティックアルゴリズムを提案する(Chuang et al , 2008)。 0.79
A deterministic algorithm can obtain the optimal solution to the optimization problem, while a metaheuristic algorithm is based on an intuitive or empirical construction that can give a feasible solution at an acceptable cost, and the degree of deviation of that feasible solution from the optimal solution may not be predictable in advance (Yang, 2012). 決定論的アルゴリズムは最適化問題に対する最適解を得ることができるが、メタヒューリスティックアルゴリズムは、許容可能なコストで実現可能な解を与える直感的あるいは経験的な構成に基づいており、最適解からの実現可能な解の偏差の度合いは事前に予測できない(Yang, 2012)。 0.84
The feature selection is essentially a Non-deterministic Polynomial (NP) problem, which is solved by the metaheuristic algorithms (Casado, 2009). 特徴選択は本質的に非決定論的多項式(NP)問題であり、メタヒューリスティックアルゴリズムによって解かれる(Casado, 2009)。 0.78
Metaheuristic algorithms rely on a combination of local and global search to find an optimal solution in a large solution space. メタヒューリスティックアルゴリズムは,局所探索と大域探索を組み合わせて,大規模解空間における最適解を求める。 0.80
The search process requires the use of iteration to approach the optimal 探索プロセスは最適に近づくために反復を使う必要がある 0.86
Preprint submitted to Elsevier Elsevierに提出されたプレプリント 0.57
June 11, 2021 2021年6月11日 0.71
英語(論文から抽出)日本語訳スコア
solution, and the setting of the parameters in search process has a significant impact. 解法では,探索過程におけるパラメータの設定に大きな影響を与える。 0.72
Both advanced algorithms and suitable parameters are needed to achieve a favorable solution. 高度なアルゴリズムと適切なパラメータの両方が望ましい解を達成するために必要である。 0.67
As mentioned above, a sophisticated design is necessary for the metaheuristic algorithm to balance local and global search. 上述したように、局所検索とグローバル検索のバランスをとるためにメタヒューリスティックアルゴリズムには洗練された設計が必要である。 0.57
This design trades relative complexity for the validity of the algorithm, and different tasks require individual finding of the suitable parameters. この設計はアルゴリズムの有効性のために相対的複雑性を交換し、異なるタスクは適切なパラメータを個別に見つける必要がある。 0.75
Swarm intelligence algorithms are gradually becoming the main implementation of metaheuristic algorithms such as (Seth and Chandra, 2016; Casado, 2009; BAS¸ and ¨Ulker, 2020). Swarmのインテリジェンスアルゴリズムは徐々にメタヒューリスティックアルゴリズム(Seth and Chandra, 2016; Casado, 2009; BAS やUlker, 2020)のメイン実装になりつつある。 0.74
The main contributions of this paper are summarized as follows: 本論文の主な貢献は以下のとおりである。 0.81
1. Use one-hot encoding to process categorical features and perform feature selection directly from the processed 1. ワンホット符号化を用いて分類的特徴を処理し、その処理から直接特徴選択を行う 0.76
high-dimensional feature space. 2. 高次元特徴空間。 2. 0.83
Propose a novel approach to exploit the outcomes of filter method. フィルタ法の結果を活用するための新しい手法を提案する。 0.80
3. Propose a concise method for feature selection. 3. 特徴選択のための簡潔な方法を提案する。 0.76
The rest of this paper is organized as follows: section 2 reviews the related works. 本論文の残りは以下の通りである: 第2節は関連する著作をレビューする。 0.65
section 3 introduces two powerful tools used in this paper. 第3節では2つの強力なツールを紹介します 0.61
section 4 details the proposed feature selection method. 第4節 提案された特徴選択方法の詳細。 0.69
section 5 discusses the experiments and results. 第5節では実験と結果について論じる。 0.61
section 6 concludes this paper. セクション6は この論文を締めくくる。 0.67
2. Related works The features in the dataset are not independent. 2. 関連作品 データセットの機能は独立していない。 0.80
In the context,it is essential for feature selection to consider the interaction between features. この文脈では、機能選択は機能間の相互作用を検討するために不可欠である。 0.69
Kohavi and John (1997) explored the interaction between features. Kohavi and John (1997) は特徴間の相互作用を探求した。 0.79
In this paper, authors investigated the strengths and weaknesses of the wrapper method and provided some improved design solutions. 本稿では,ラッパー法の長所と短所を調査し,改良した設計法を提案する。 0.60
The wrapper method is designed to find the optimal feature subset.During the experimen, performance evaluation is based on some datasets. ラッパー法は最適な特徴部分集合を見つけるために設計されており、実験中、性能評価はいくつかのデータセットに基づいて行われる。 0.54
The experimental results indicate that the proposed algorithm achieves an improvement in accuracy. 実験結果から,提案アルゴリズムは精度の向上を実現することが示された。 0.76
With feature selection going from the edge of the stage to the center, Guyon and Elisseeff (2003) provided an introduction of feature selection. フィーチャーセレクションがステージの端から中央に進むにつれて、guyon and elisseeff (2003) は機能セレクションの紹介を行った。 0.68
In this paper,the following aspects of knowledge are discussed: the definition of the objective function,feature construction, feature ranking, multivariate feature selection, feature validity evaluation method and efficient search methods for better feature subset. 本稿では, 目的関数の定義, 機能構築, 特徴ランク付け, 多変量特徴選択, 特徴妥当性評価法, 効率的な特徴サブセット探索法について述べる。
訳抜け防止モード: 本稿では,目的関数の定義という知識の側面について論じる。 特徴構築、特徴ランキング、多変量特徴選択、特徴有効性評価方法 優れた機能サブセットのための効率的な検索方法。
0.83
Datasets in many areas have thousands of features, which makes feature selection especially useful for two purposes: better the performance of classifier, faster the speed of classifier. 多くの領域のデータセットには何千もの機能があるため、特に2つの目的:分類器の性能の向上、分類器の高速化。 0.68
Estevez et al (2009) developed a noval feature selection method to overcome the limitations of MIFS (Battiti, 1994), MIFS-U (Kwak and Choi, 2002),and mRMR (Hanchuan Peng et al , 2005). Estevez et al (2009) は、MIFS (Battiti, 1994)、MIFS-U (Kwak and Choi, 2002)、mRMR (Hanchuan Peng et al , 2005) の制限を克服するために、ノーマルな特徴選択法を開発した。 0.73
The model known as NMIFS (normalized mutual information feature selection) is designed to optimize the measure of the relationship between features and labels. NMIFS(正規化相互情報特徴選択)として知られるモデルは、特徴とラベルの関係を最適化するために設計されている。 0.79
NMIFS is a filter method independent of any machine learning model. NMIFSは、任意の機械学習モデルに依存しないフィルタ手法である。 0.72
The purpose of normalization is to reduce the bias of mutual information toward multivalued features and restrict its value to the interval [0,1]. 正規化の目的は、多値特徴に対する相互情報のバイアスを減らし、その値を間隔[0,1]に制限することである。 0.72
NMIFS does not require user-defined parameters such as β in MIFS and MIFS-U. NMIFSは、MIFSのβやMIFS-Uのようなユーザー定義パラメータを必要としない。 0.61
Compared to the MIFS, MIFS-U, and mRMR. MIFS、MIFS-U、mRMRと比較する。 0.72
NMIFS perform better on multiple artificial datasets and benchmark problems. NMIFSは、複数の人工データセットとベンチマーク問題でより良いパフォーマンスを発揮する。 0.50
In addition, the authors combine NMIFS with genetic algorithm and propose the GAMIFS, which uses NMIFS to initialize a better starting point and as part of a mutation operator. さらに、NMIFSと遺伝的アルゴリズムを組み合わせて、NMIFSを使用してより優れた開始点を初期化し、突然変異演算子の一部としてGAMIFSを提案する。 0.74
During the mutation process,features with high mutual information value will have a higher probability of being selected, which speeds up the convergence of the genetic algorithm. 突然変異の過程では、相互情報量の高い特徴が選択される確率が高くなり、遺伝的アルゴリズムの収束が加速される。 0.71
The rough sets for feature selection were proven to be feasible (Zainal et al , 2006). 特徴選択のための粗い集合は実現可能であることが証明された(Zainal et al , 2006)。 0.75
The particle swarm optimization algorithm is an excellent metaheuristic algorithm (Trelea, 2003). 粒子群最適化アルゴリズムは優れたメタヒューリスティックアルゴリズムである(Trelea, 2003)。 0.84
Wang et al (2007) proposed an algorithm based on rough sets and particle swarms. Wang et al (2007) は粗集合と粒子群に基づくアルゴリズムを提案した。 0.91
The particle swarm optimization algorithm uses a number of particle flights in the feature space by interparticle interactions to find the best feature subset. 粒子群最適化アルゴリズムは、粒子間相互作用による特徴空間内の多数の粒子飛行を用いて、最高の特徴部分集合を見つける。 0.77
The proposed algorithm utilized UCI datasets (Blake et al , 1998) for evaluation. 提案アルゴリズムは,UCIデータセット(Blake et al , 1998)を用いて評価を行った。 0.79
The experimental results are compared with a GA-based approach and other deterministic rough set reduction algorithms. 実験結果はGAに基づくアプローチや他の決定論的ラフセット削減アルゴリズムと比較される。 0.82
The experimental results showed that the proposed algorithm produces better performance. 実験の結果,提案アルゴリズムにより性能が向上した。 0.83
Intrusion detection system (IDS) is an important security device. 侵入検知システム(IDS)は重要なセキュリティ装置である。 0.88
Amiri et al (2011) proposed a mutual informationbased feature selection method for IDS. Amiri et al (2011) はIDSの相互情報に基づく特徴選択法を提案した。 0.76
A robust intrusion detection system needs to be both high performance and high speed. 堅牢な侵入検知システムは高性能かつ高速である必要がある。 0.78
The proposed method uses LSSVM for classifier construction. 提案手法は分類器の構成にLSSVMを用いる。 0.75
The KDD Cup 99 dataset is used for the evaluation process and the evaluation results indicate that the proposed method produces a high level of accuracy, especially for remote to login (R2L) and user to remote (U2R) attacks. 評価にはKDD Cup 99データセットを用い,評価結果から,特にリモート・ツー・ログイン(R2L)とユーザ・ツー・リモート(U2R)攻撃において,提案手法の精度が高いことが示された。 0.68
2 2 0.85
英語(論文から抽出)日本語訳スコア
Salp swarm algorithm (SSA) is an excellent optimization algorithm designed for continuous problems (Mirjalili et al , 2017). Salp Swarm Algorithm (SSA) は連続問題のために設計された優れた最適化アルゴリズムである(Mirjalili et al , 2017)。 0.81
Sayed et al (2018) came up with a novel approach which combines SAA with chaos theory (CSAA). Sayed et al (2018)は、SAAとカオス理論(CSAA)を組み合わせた新しいアプローチを考案した。 0.77
Simulation results showed that chaos theory improves the convergence speed of the algorithm significantly. シミュレーションの結果,カオス理論はアルゴリズムの収束速度を大幅に改善することがわかった。 0.76
The experiments reveal the potential of CSAA for feature selection, which can select fewer features while achieving higher classification accuracy. 実験によりCSAAが特徴選択の可能性を明らかにし、より高い分類精度を達成しつつ、より少ない特徴を選択できる。 0.66
Water wave optimization(WWO) is new nature-inspired metaheuristic algorithm that was developed by (Zheng and Yu-Jun, 2015).The approach known as WWO simulates the phenomena of water waves refraction, propagation and fragmentation to find the global optimal solution in optimization problems. WWO (Water wave optimization) は (Zheng and Yu-Jun, 2015) によって開発された新しい自然に着想を得たメタヒューリスティックアルゴリズムであり、WWOとして知られるアプローチは、最適化問題における大域的最適解を見つけるために、波の屈折、伝播、断片化の現象をシミュレートする。 0.62
A new feature selection algorithm uses a combination of rough set theory (RST) and a binary version of the water wave optimization approach (WWO) was proposed by (Ibrahim et al , 2020). Ibrahim et al , 2020 で提案した, ラフセット理論 (RST) とウォーターウェーブ最適化手法 (WWO) のバイナリバージョンを組み合わせた特徴選択アルゴリズムを提案する。
訳抜け防止モード: 粗集合理論(RST)の組み合わせを用いた新しい特徴選択アルゴリズム また, (Ibrahim et al, 2020) による水面最適化手法 (WWO) のバイナリバージョンを提案した。
0.79
Several datasets are used to evaluate the proposed algorithm, and the results is compared to several advanced metaheuristic algorithms. いくつかのデータセットを用いて提案アルゴリズムの評価を行い、その結果をいくつかの高度なメタヒューリスティックアルゴリズムと比較した。 0.63
The computational results demonstrate the efficiency of the proposed algorithm in feature selection. 計算結果は,特徴選択における提案アルゴリズムの効率性を示す。 0.93
Finally,the PIO (Pigeon Inspired Optimizer) is an advanced bionic algorithm proposed by (Duan and Qiao, 2014), Alazzam et al (2020) proposed two binary schemes to improve PIO to accommodate the feature selection problem and applied it to intrusion detection system. 最後に、pio (pigeon inspired optimizer) は(duan and qiao, 2014)、alazzam et al (2020) によって提案された高度なビオニクスアルゴリズムであり、特徴選択問題に対応するためにpioを改善するための2つの二元スキームを提案し、侵入検出システムに適用した。
訳抜け防止モード: 最後に PIO ( Pigeon Inspired Optimizer ) は (Duan and Qiao, 2014 ) によって提案された高度なバイオニックアルゴリズムである。 Alazzam et al (2020 ) は特徴選択問題に対応するために PIO を改善する2つのバイナリスキームを提案した 侵入検知システムに適用しました
0.84
Three popular datasets: KDD Cup 99, NSL-KDD, and UNSW-NB15, are used to test the algorithm. KDDカップ99、NSL-KDD、UNSW-NB15の3つの一般的なデータセットがアルゴリズムのテストに使用される。 0.61
The proposed algorithm surpasses six state-of-the-art feature selection algorithms in terms of F-score and other metrics. 提案アルゴリズムは,Fスコアなどの指標を用いて,最先端の6つの特徴選択アルゴリズムを超える。 0.66
Further, Cosine PIO selecte 7 features from KDD Cup 99, 5 features from NSL-KDD and 5 features from UNSW-NB15. さらに、コサインPIOはKDDカップ99から7つの機能、NSL-KDDから5つの機能、UNSW-NB15から5つの機能を選択する。 0.49
It is amazing to achieve a excellent performance by so few features. 少数の機能によって優れたパフォーマンスを達成するのは素晴らしいことです。 0.69
In the field of feature selection, classifiers aside, the wrapper methods are gaining popularity with the development of computer hardware. 特徴選択の分野では、分類器は別として、ラッパーメソッドはコンピュータハードウェアの開発で人気を集めている。 0.71
Various metaheuristic and hybrid feature selection methods have been proposed. メタヒューリスティックおよびハイブリッドな特徴選択法が提案されている。 0.62
However, these algorithms have some shortcomings: hard to understand and learn; more difficult to determine parameters; large computational cost. しかし、これらのアルゴリズムにはいくつかの欠点がある:理解と学習が難しい、パラメータを決定するのが難しい、計算コストが大きい。 0.66
To solve the above problems, the paper proposed a concise method for feature selection via normalized frequencies (NFFS). 上記の問題を解決するために,正規化周波数(NFFS)による特徴選択のための簡潔な手法を提案した。 0.72
This method can perform feature selection at a much lower computational cost while maintaining high performance. 高い性能を維持しつつ、より少ない計算コストで特徴選択を行うことができる。 0.70
The best feature is that it has a very simple logic, so it can be applied easily. 最良の機能は、非常に単純なロジックを持っているため、簡単に適用できることです。 0.79
3. One-hot encoding and mutual information 3. ワンホット符号化と相互情報 0.77
This section presents two tools used in this paper. 本項では,本稿で使用する2つのツールを紹介する。 0.61
Processing categorical features is an indispensable preprocessing step in machine learning, which is performed by One-hot encoding in this paper. 分類的特徴の処理は機械学習において必要不可欠な前処理ステップであり,本論文ではワンホット符号化を行う。 0.75
Mutual information is an excellent filter method that can capture both the linear and nonlinear dependencies between feature and label. 相互情報は特徴とラベルの間の線形および非線形の依存関係をキャプチャできる優れたフィルタ手法である。 0.83
3.1. One-hot encoding 3.1. ワンホットエンコーディング 0.67
One-hot encoding encode categorical features as a one-hot numeric array (Li et al , 2018). one-hot encoding encoding カテゴリの特徴をone-hot 数値配列としてエンコードする(li et al , 2018)。 0.68
One-hot encoding projects the categorical features to a high-dimensional feature space. 1-hotエンコーディングはカテゴリの特徴を高次元の特徴空間に投影する。 0.63
It allows the distance among features to be calculated more reasonably, which is important for many classifiers. 特徴間の距離をより合理的に計算することが可能であり、多くの分類器にとって重要である。 0.64
One-hot encoding uses N status registers to encode N states. ワンホットエンコーディングはN状態レジスタを使用してN状態をエンコードする。 0.65
Each register has its own individual register bits and only one of which is valid at any given time. 各レジスタはそれぞれのレジスタビットを持ち、その1つだけが任意の時間に有効である。 0.83
It’s easier to understand one-hot encoding with an example, let’s side there is a dataset of a household item with seven samples. 例を挙げると、ワンホットのエンコーディングを理解するのが簡単で、7つのサンプルを持つ家庭用品のデータセットを並べてみましょう。 0.77
Length, Width and Color are used to describe each sample, but Color is not a numerical feature so it needs to be transformed. 長さ、幅、色は各サンプルを記述するために使用されるが、色は数値的な特徴ではないため、変換する必要がある。 0.70
Ordinal encoding is a common encoding approach for categorical features (Blake et al , 1998), by which feature is converted to ordinal integers. 順序符号化は分類的特徴に対する一般的な符号化手法であり(Blake et al , 1998)、その特徴を順序整数に変換する。 0.79
The contrast between one-hot encoding and ordinal encoding is illustrated in Fig 1. 図1に、ワンホット符号化と順序符号化の対比を示す。 0.74
As Fig 1 shows, one-hot encoding transforms the feature ‘Color’ into four features ( Color A, Color B, Color C, Color D). 図1が示すように、ワンホットエンコーディングは‘Color’機能を4つの特徴(Color、Color B、Color C、Color D)に変換する。 0.81
The characters ( Non-numeric ) A, B, C and D indicate different colors. 文字 (非数値 ) a, b, c, d は異なる色を示す。 0.77
From the middle table in Fig 1, it can be noted that each sample takes 1(numeric) in one of the four color features, while 0 is taken in the other three features ‘Color ’. 図1の中間表から、各サンプルが4つの色の特徴のうちの1つ(数値)を取るのに対し、0は'Color 'の他の3つの特徴に含まれることに注意することができる。 0.78
As can be seen from Fig 1, one-hot encoding will expands the dimensionality of the dataset in comparison to ordinal coding. 図1に示すように、ワンホットエンコーディングは、順序符号化と比較してデータセットの次元を拡大する。 0.71
We also use as a separator in the processing of the dataset in the later part of this paper. また,本論文の後半部では,データセット処理のセパレータとして利用している。 0.80
3 3 0.85
英語(論文から抽出)日本語訳スコア
3.2. mutual information Figure 1: Comparison of one-hot encoding and ordinal encoding. 3.2相互情報 図1: 1つのホットエンコーディングと順序エンコーディングの比較。 0.75
Mutual information can be applied for evaluating dependency between random variables (Kraskov et al , 2004). 相互情報は、確率変数間の依存性を評価するために応用できる(Kraskov et al , 2004)。 0.81
Let X ( feature ) and Y ( label ) be two discrete random variables, The mutual information (MI value) between X and Y can be calculated by Eq 1. X ( Feature ) と Y ( label ) を2つの離散確率変数とし、X と Y の間の相互情報(MI値)は Eq 1 で計算できる。 0.87
(cid:88) (cid:88) (cid:88) (cid:88) 0.78
x∈X y∈Y xjavax yhtmly 0.43
I(X; Y) = p(x, y) log I(X; Y) = p(x, y) log 0.85
p(x, y) p(x)p(y) p(x, y) p(x)p(y) 0.85
(1) Where I(X; Y) is mutual information, p(x, y) is the joint probability density function, p(x) and p(y) are marginal density functions of X and Y, respectively. (1) I(X, Y) が相互情報であるとき、p(x, y) は合同確率密度関数であり、p(x) と p(y) はそれぞれ X と Y の辺密度関数である。 0.81
From the equation, we know that when X and Y are independent of each other, their MI value is 0, otherwise it must be greater than 0. 方程式から、X と Y が互いに独立であるとき、それらの MI 値は 0 であり、そうでなければ 0 より大きいことを知る。 0.88
4. NFFS This section details the proposed feature selection method in two phases. 4. NFFS 本稿では,提案する特徴選択法を2段階に分けて述べる。 0.79
Phase I of NFFS is described in subsection 4.1 and phase II of NFFS is located in subsection 4.2. NFFSのフェーズIは4.1に、NFFSのフェーズIIは4.2に記載されている。 0.74
Phase II further processes the information provided by phase I and finally finds the best feature subset. フェーズIIはさらにフェーズIで提供される情報を処理し、最後に最高の機能サブセットを見つけます。 0.61
Table 1 lists some abbreviations appeared in this paper, which allow the paper more concise and clear. 表1には、より簡潔で明確になるいくつかの略語が記載されている。 0.60
NFFS is different from common feature selection methods in the following two points: 1. NFFSは、以下の2点において、一般的な特徴選択方法とは異なる。 0.76
NFFS selects features from the feature space of the preprocessed dataset, rather than from the raw feature space. NFFSは、生の機能空間ではなく、前処理されたデータセットの機能空間から機能を選択する。 0.67
The features selected by NFFS will not contain any categorical features. NFFSが選択した機能は、カテゴリ的特徴を一切含まない。 0.73
2. All steps of NFFS use the preprocessed dataset. 2. NFFSのすべてのステップは、前処理されたデータセットを使用する。 0.67
Only the preprocessing process would touch the raw dataset. 前処理プロセスのみが生のデータセットに触れる。 0.80
The dimensionality of the preprocessed dataset will be greater than the raw dataset. 事前処理されたデータセットの次元性は、生のデータセットよりも大きくなります。 0.62
4 Width15.13.31.813123 .4TextOne-hot encodingOrdernal encodingSample 1Sample 2Sample 3Sample 4Sample 5Sample 6Sample 7Length 0.23670.31.34.5width 15.13.31.813123.4Sam ple 1Sample 2Sample 3Sample 4Sample 5Sample 6Sample 7Length0.23670.31.34 .5Sample 1Sample 2Sample 3Sample 4Sample 5Sample 6Sample 7Length0.23670.31.34 .5Width15.13.31.8131 23.4Color ABCDBABColor1234212C olor_AColor_BColor_D Color_C1000010000100 001010010000100 4 Width15.13.31.8133.4 Text-hot encodingOrdernal encodingSample 1Sample 2Sample 3Sample 4Sample 5Sample 6Sample 7Length 0.23670.31.34.5width 15.13.31.813123.4Sam ple 1Sample 3Sample 4Sample 5Sample 6Sample 7Length0.23670.31.34 .5Sample 1Sample 2Sample 3Sample 4Sample 6Sample 6Sample 6Sample 0.23670.31.34.5Width 15.13313131313133Col or ABC12orColor12orColo r_Aor_1000010000_100 00000000000000000 0.56
英語(論文から抽出)日本語訳スコア
WV1 AFS1 WV2 WV1 AFS1 WV2 0.78
AFS2 Table 1: Abbreviations used in this paper and their meanings. AFS2 表1:この論文で使われる略語とその意味 0.73
Weight vector obtained in phase I of NFFS 重量ベクトル 入手 NFFSのフェーズIでは 0.72
4.1. Phase I of NFFS 4.1. NFFSのフェーズI 0.72
Alternative feature subsets generated 代替特徴部分集合 生成 0.76
in phase I of NFFS NFFSのフェーズIでは 0.87
Weight vector obtained in phase II of NFFS 重量ベクトル 入手 NFFSのフェーズIIでは 0.72
Alternative feature subsets generated 代替特徴部分集合 生成 0.76
in phase II of NFFS NFFSのフェーズIIでは 0.87
The purpose of phase I of NFFS is to generate a batch of feature subsets, a portion of which can yield a slightly NFFSのフェーズIの目的は、機能サブセットのバッチを生成することである。
訳抜け防止モード: nffsの第i相の目的は 機能サブセットのバッチを生成するが、その一部はわずかに収まることができる
0.66
higher fitness values. より高いフィットネス値。 0.76
The mechanism of this section is shown at the left side of Fig 2, the steps being as follows: このセクションのメカニズムは、図2の左側に示され、ステップは以下の通りである。 0.70
1. measure MI values: Mutual information is used here only to evaluate the MI value for each feature. 1. mi値の測定: 各機能のmi値を評価するためにのみ、相互情報を使用する。 0.74
The preprocessed dataset is fed to the mutual information module, which outputs a positive floating number for each feature. 事前処理されたデータセットは相互情報モジュールに供給され、各機能に対して正の浮動数を出力する。 0.70
The larger the number is, the stronger the relationship between feature and label, and vice versa. 数が大きいほど、特徴とラベルの関係が強くなり、その逆も強くなります。 0.67
2. Find the threshold: In the above step we obtained the MI value for each feature in the dataset. 2. しきい値を見つける: 上記のステップでは、データセットの各フィーチャのMI値を取得しました。 0.79
Histogram is used to analyze the distribution of MI values of features in the dataset. ヒストグラムはデータセット内の特徴のMI値の分布を分析するために使用される。 0.79
The distribution for these MI values of NSLKDD dataset (A dataset used for the experiment) is shown in Fig 3, from which it can be noticed that the majority of features obtained tiny MI values. nslkddデータセット(実験に使用されるデータセット)のこれらのmi値の分布は、図3に示されており、その中から、ほとんどの特徴が小さなmi値を得たことに気付くことができる。 0.69
A threshold is introduced to filter out these tiny MI values since it is not necessary to be calculated in the next step. 次のステップで計算する必要がないので、これらの小さなMI値をフィルタリングするためにしきい値を導入する。 0.74
Finding the threshold requires analyzing MI values of features first, and the histogram is a handy tool. しきい値を見つけるにはまず特徴のMI値を分析する必要があり、ヒストグラムは便利なツールである。 0.72
important to note that the threshold is selected by analyzing the histogram rather than a self-defined parameter. 重要なのは、閾値は自己定義パラメータではなくヒストグラムを分析することで選択されることだ。 0.66
3. Obtain WV1: A formula is used to convert MI values of features into weights of features, which is defined as 3. wv1: 特徴のmi値を特徴の重みに変換するために使われる公式で、それが定義されている。 0.78
It is in Eq 2. それは eq2に登場。 0.73
0.4 Vmax−Vt 0.4 Vmax−Vt 0.59
+ 0.5 Vi > Vt Vi ≤ Vt +0.5 Vi > Vt Vi ≤ Vt 0.95
(2) (cid:40) (Vi − Vt) (2) (cid:40) (vi − vt) 0.87
0.5 WV1i = 0.5 WV1i = 0.65
Where i (number of features) denotes the i-th item of a vector, vector WV1 (weight vector obtained in phase I of NFFS) denotes weights of features, Vi denotes MI value of the i-th feature. i(特徴数)がベクトルのi番目の項目を表す場合、ベクトルWV1(NFFSのフェーズIで得られた重みベクトル)は特徴の重みを表すが、Viはi番目の特徴のMI値を表す。 0.71
Vmax denotes the maximum MI value in vector V, while Vt is the threshold from the previous step. VmaxはベクトルVにおける最大MI値を表し、Vtは前のステップのしきい値である。 0.88
Where 0.4 represents the upper bound for the increase of weights, which is intended to keep the weights in a suitable range for next step. ここで0.4は重量増加の上限であり、これは次のステップに適した範囲で重量を維持することを意図している。 0.69
Another constant, 0.5, denotes the basic weight that all features can hold. 別の定数 0.5 は全ての特徴が保持できる基本重量を表す。 0.87
It is clear from Eq 2 and Fig 3 that there are a large number of features with a weight of 0.5, but this is not a Eq 2 と Fig 3 からは、0.5 という大きな特徴があることは明らかだが、これはそうではない。 0.69
problem, phase I of NFFS isn’t about getting an awesome result. 問題なのは、NFFSのフェーズIは素晴らしい結果を得ることではない。 0.81
4. Generate AFS1 by probability: When the WV1 is obtained, it’s also the time to generate feature subsets. 4. AFS1を確率で生成する: WV1が取得されると、機能サブセットを生成する時でもある。 0.85
The generation process requires the use of Eq 3. 生成プロセスはEq 3を使用する必要がある。 0.54
AFS1i L = sgn(WV1i − randi) = AFS1i L = sgn(WV1i − randi) = 0.78
(3) (cid:40) 1 WV1i − randi > 0 (3) (cid:40) 1 WV1i − randi > 0 0.85
0 WV1i − randi ≤ 0 0 wv1i − randi ≤ 0 0.87
Where L denotes the L-th generated feature subset, i denotes the i-th item of a vector. L が L の生成した特徴部分集合を表すとき、i はベクトルの i 番目の項目を表す。 0.64
AFS 1i L denotes the i-th feature of the L-th feature subset. AFS 1i LはL番目の特徴部分集合のi番目の特徴を表す。 0.74
AFS1L , WV1 and rand are all vector with the same dimension as the number of features in th dataset. AFS1L、WV1、rundはすべて、thデータセットのフィーチャの数と同じ次元のベクトルである。 0.68
AFS1L is a mask to represent a features subset. AFS1Lは機能サブセットを表すマスクである。 0.87
Each item in rand is a uniform random number in the range [0,1]. rand の各項目は [0,1] の範囲内の一様乱数である。 0.83
In the vector AFS1L, ‘1’ means the feature is selected, while ‘0’ means the feature is not selected. ベクトル AFS1L では、'1' は特徴が選択され、'0' は特徴が選択されないことを意味する。 0.80
Applying Eq 3, the L feature subsets constitute AFS1 (alternative feature subsets generated in phase I of NFFS). Eq 3を適用すると、L特徴部分集合はAFS1(NFFSのフェーズIで生成される代替特徴部分集合)を構成する。 0.67
From Eq 3, it can be learned that features with higher MI value will have a higher probability of being selected, as a result, the introduction of mutual information makes NFFS have a better starting point. Eq 3 から、高い MI 値を持つ特徴が選択される確率が高いことを知ることができ、その結果、相互情報の導入により NFFS がより良い出発点となる。 0.77
5. Evaluate feature subsets: Each feature subset in AFS1 is evaluated using classifier to obtain a fitness value. 5. 機能サブセットを評価する: afs1の各機能サブセットは、分類器を使用して適合度値を取得する。 0.74
Specifically, the evaluation process consists of the following three steps: first, prepare training dataset and testing dataset according to AFS1L; next, train the classifier with the training set; finally, test dataset is used to evaluate the trained classifier, and the result is the fitness value of AFS1L. 評価プロセスは、まず、AFS1Lに従ってトレーニングデータセットとテストデータセットを作成し、次に、トレーニングセットで分類器をトレーニングし、最後に、トレーニングされた分類器を評価するためにテストデータセットを使用し、その結果はAFS1Lの適合値である。 0.75
5 5 0.85
英語(論文から抽出)日本語訳スコア
Figure 2: NFFS for feature selection. 図2: 特徴選択のためのNFFS。 0.83
As Eq 2 demonstrates, we use the outcomes of mutual information directly, rather than as a filter method to rank features. eq2が示すように、特徴のランク付けにはフィルタメソッドではなく、相互情報の結果を直接使用する。 0.72
Phase I of NFFS is now complete, feature subsets in AFS1 and their fitness values are the raw materials for phase II of NFFS. NFFSのフェーズIは現在完成しており、AFS1のサブセットとその適合値はNFFSのフェーズIIの原料である。 0.79
Algorithm 1 show an overall procedure for Phase I of NFFS. アルゴリズム1はNFFSのフェーズIの全体的な手順を示す。 0.78
As the algorithm shows that there are two layer while loops. アルゴリズムが示すように、2つの層 whileループがあります。 0.76
The first layer represents a generated feature subset, while the second layer determines which features are selected in this feature subset. 第1のレイヤは生成された機能サブセットを表し、第2のレイヤは、この機能サブセットで選択される機能を決定する。 0.63
Also we list the shapes of some of the variables from Algorithm 1 in Table 2, taking the NSL-KDD dataset as an また、表2のアルゴリズム1からNSL-KDDデータセットを例に、変数の形状を列挙する。
訳抜け防止モード: また、表2のアルゴリズム1から変数の一部の形状をリストアップする。 NSL - KDD データセットを例に挙げる
0.82
example. Table 2 also contains some of the variables in Algorithm 2. 例えば 表2にはアルゴリズム2の変数も含まれている。 0.64
4.2. Phase II of NFFS 4.2. NFFSの第II相 0.78
A new weight vector (WV2) would be obtained by utilizing the raw materials provided by phase I of NFFS, which is the secret sauce for finding the optimal feature subset. 新しい重量ベクトル(wv2)は、最適な特徴部分集合を見つけるための秘密ソースであるnffsの第i相の原料を用いて得られる。
訳抜け防止モード: 新しい重量ベクトル (WV2 ) は NFFS の位相 I で提供される原料を利用して得られる。 最適な特徴を 見つけるための秘密のソースです
0.69
The mechanism of this section is shown at the right side of Fig. このセクションのメカニズムはfigの右側に示されています。 0.68
2, the steps being as follows: 2 ステップは次の通りである。 0.75
1. Count frequencies: First, sort the feature subsets in AFS1 by their fitness values, the M feature subsets with higher fitness values constitute AFS1top, the N (M + N < L) feature subsets with lower fitness values constitute AFS1bottom, the rest feature subsets with ordinary fitness values are not involved in the counting. 1. カウント周波数: まず、そのフィットネス値によってAFS1の特徴部分集合をソートし、より高いフィットネス値を持つM特徴部分集合をAFS1top、低いフィットネス値を持つN(M + N < L)特徴部分集合をAFS1bottom、通常のフィットネス値を持つ残りの特徴部分集合をカウントに含まない。 0.81
Next, count how many times each feature be selected in AFS1top and AFS1bottom, respectively. 次に、各機能がそれぞれAFS1topとAFS1bottomで選択される回数をカウントする。 0.78
The counting results constitute vector −−−−−→ −−−→ Fbottom, respectively. 計数結果はベクトル −−−−−−−−−−−−−fbottom を構成する。 0.48
The dimensions of these two vectors are the same as the number of features in Ftop and vector −−−→ Ftop represents the total number of occurrences of the i-th feature of the dataset in AFS1top. これら2つのベクトルの次元は Ftop の特徴数と同じであり、ベクトル −−− − Ftop は AFS1top のデータセットの i 番目の特徴の総数を表す。 0.87
dataset. The i-th item in −−−−−→ Fbottom represents the total number of occurrences of the i-th feature of the dataset in AFS1bottom. データセット。 AFS1bottomにおいて、-−−−−−→Fbottomのi-th項目はデータセットのi-th特徴の総数を表す。 0.75
The i-th item in 6 i‐th item 6 0.76
Count frequenciesObtain WV2 by converting frequenciesGenerate AFS2 by sortingObtain the optimal featuresubsetFind the threshholdby histogramObtain WV1 by Eq 2Generat AFS1 by probabilityPCARandom ForestEvaluate feature subsetsEvaluate feature subsetsPhase I of NWFSPhase II of NWFSCalculate MI values offeaturesRandom ForestStandardizatio nClassifierRandom ForestPCA NWFSCalculate MI value offeaturesRandom ForestStandardizatio nClassifierRandom ForestPCA by probabilityPCARandom ForestEvaluate feature subsetsPhase I of NWFSPhase II of NWFSCalculate MI values of FeaturesRandom ForestStandardizatio nClassifierRandom ForestPCA 0.72
英語(論文から抽出)日本語訳スコア
Algorithm 1: Phase I of NFFS. アルゴリズム1: NFFSのフェーズI。 0.67
Input: L Result: AFS1; fitness values of AFS1 入力: L結果: AFS1; AFS1の適合値 0.88
1 Use mutual information to score each feature. 1 相互情報を用いて各特徴を採点する。 0.68
2 Select an appropriate threshold value. 2 適切な閾値を選択する。 0.81
3 Use Eq 2 to get WV1. 3 Eq 2 を使って WV1 を得る。 0.80
4 while L > 0 do 5 6 7 8 9 10 end 11 Evaluate the feature subsets inside AFS1. L > 0 do 5 6 7 8 9 9 10 end 11 AFS1の機能サブセットを評価する。 0.70
12 return AFS1; fitness values of AFS1 12 return AFS1; fitness value of AFS1 0.95
while i > 0 do Get AFS 1i i = i − 1 end L = L − 1 一方、i > 0 は AFS 1i i = i − 1 end L = L − 1 0.83
L by Eq 3. Table 2: Shapes of partial ariables in Algorithm 1 and Algorithm 2 略称はEq3。 表2:アルゴリズム1とアルゴリズム2における部分有理の形状 0.70
value WV1 WV2 value WV1 WV2 0.83
AFS1 AFS 2 AFS1 AFS 2 0.82
fitless values fitless values 適度な価値 適度な価値 0.60
of AFS1 of AFS 2 AFS1 の AFS 2 の 0.84
shape 1x122 1x122 形状 1x122 1x122 0.64
Lx122 Ox122 Lx122 Ox122 0.71
Lx1 Ox1 2. Lx1 Ox1 2. 0.81
Obtain WV2: WV2 can be derived from WV2: WV2を抽出できる 0.73
−−−→ Ftop and −−→ Ftop Ftop -−−−ftop及び−−−−ftopftop 0.76
(cid:13)(cid:13)(cid :13)(cid:13) − (cid:13)(cid:13)(cid :13)(cid:13)−−→ (cid:13)(cid:13)(cid :13)(cid:13)−→(cid:13)(cid:13)(cid :13)(cid:13)−−→ 0.67
−−−−−→ Fbottom by Eq 4. eq 4 による-−−−−−fbottom。 0.78
−−−−−→ Fbottom Fbottom −−−−−−→Fbottom Fbottom 0.47
(cid:13)(cid:13)(cid :13)(cid:13) (cid:13)(cid:13)(cid :13)(cid:13)−−−−−→ (cid:13)(cid:13)(cid :13)(cid:13)(cid:13) (cid:13)(cid:13)−−−−−−−−→) 0.65
WV2 = (cid:13)(cid:13)(cid :13)(cid:13)−→ WV2 = (cid:13)(cid:13)(cid :13)−→ 0.89
F... (cid:13)(cid:13)(cid :13)(cid:13) denotes the length of a vector, the purpose of which is to normalize the vector in order to obtain a F! (cid:13)(cid:13)(cid :13)(cid:13)(cid:13) はベクトルの長さを表し、その目的はベクトルを得るために正規化することである。
訳抜け防止モード: F! (cid:13)(cid:13)(cid :13)(cid:13)はベクトルの長さを表し、その目的を表す。 ベクトルを正規化して
0.71
Where normalised frequency. どこ? 正常化周波数 0.70
The normalized frequencies have the same effect as the weights. 正規化周波数は重みと同じ効果を持つ。 0.74
The logic of the equation is that if a feature appears often in AFS1top but rarely in AFS1bottom, then it has a high weight. この方程式の論理は、ある特徴がAFS1トップにしばしば現れるが、AFS1ボットムにはほとんど現れないなら、それは高い重みを持つというものである。
訳抜け防止モード: 方程式の論理は ある機能がAFS1topによく現れるが、AFS1bottomにはほとんど現れない場合、高い重みを持つ。
0.82
Note that the style of Eq. Eqのスタイルに注意。 0.62
4 is ’vector = vector − vector’. 4 は ’vector = vector − vector’ である。 0.95
This concise formula is the heart of NFFS. この簡潔な公式はNFFSの心臓である。 0.76
What the ’normalized frequencies’ in the title of the paper refers to is Eq 4. 論文のタイトルの“正規化周波数”が示すのは、Eq 4だ。 0.68
(4) From the above step, we know that the items in the vector (4) 上記のステップから、ベクトル内の項目が分かる。 0.72
features. It makes sense to compare a frequency in compare a frequency in 特徴。 周波数を比較して周波数を比較するのは理にかなっている 0.69
−−−→ Ftop with a frequency in 周波数の−−−−−−Ftop 0.55
−−−→ Ftop and vector −−−−−Ftopとベクトル 0.59
−−−→ Ftop with another frequency in 別の周波数の−−−−ftop 0.58
−−−−−→ Fbottom. −−−−−−−−Fbottom 0.37
This is why normalization is needed. そのため正規化が必要となる。 0.66
−−−−−→ Fbottom are the frequencies of the −−−→ Ftop. -−−−−−fbottomは−−−−ftopの周波数である。 0.70
But it is meaningless to しかし それは無意味です 0.79
3. Generate AFS2 by sorting: When the WV2 is obtained, it is also the time to generate feature subsets, the 3. ソートにより AFS2 を生成する: WV2 が得られたとき、特徴部分集合を生成する時でもある。 0.81
generation process is much simpler than those in phase I of NFFS. 生成過程は NFFS のフェーズ I よりもはるかに単純である。 0.81
The first feature subset generated is the feature with the highest weight in WV2, the second feature subset generated is the two features with highest weight in WV2, the third feature subset generated is the three features with the highest weight in WV2, and so on. 生成した第1の機能サブセットは、WV2で最高重量のフィーチャであり、第2の機能サブセットは、WV2で最高重量の2つの特徴であり、第3の機能サブセットは、WV2で最高重量の3つの特徴である。 0.70
In total, O (O < number of features) feature subsets is generated.These feature subsets constitute AFS2. O (O < number of features) 機能サブセットが生成され、これらの機能サブセットはAFS2を構成する。 0.72
4. Evaluate feature subsets and get the result: Each feature subset in AFS2 is provided to the classifier for evaluation, and the feature subset with the highest fitness value would be selected as the output of NFFS. 4. AFS2の各機能サブセットは評価のために分類器に提供され、最も適合度が高い機能サブセットはNFFSの出力として選択される。
訳抜け防止モード: 4. 機能サブセットを評価して結果を得る AFS2の各特徴サブセットは評価のために分類器に提供される。 そして,NFFSの出力として,最も適合度が高い機能サブセットを選択する。
0.84
Algorithm 2 show an overall procedure for Phase II of NFFS. アルゴリズム2はNFFSのフェーズIIの全体的な手順を示す。 0.78
NFFS only needs to evaluate (L + O) feature subsets to obtain result, which is a great advantage in speed compared to the heuristic algorithms, and the result is excellent. NFFSは結果を得るためには (L + O) 特徴部分集合を評価するだけでよい。
訳抜け防止モード: NFFS は (L + O ) 特徴部分集合のみを評価する必要がある 結果を得るために ヒューリスティックなアルゴリズムに比べて スピードの面で大きな利点があります 結果は素晴らしいです
0.88
7 7 0.85
英語(論文から抽出)日本語訳スコア
Algorithm 2: Phase II of NFFS アルゴリズム2: NFFSのフェーズII 0.72
Input: M, N, O Result: Best feature subset. 入力: m, n, oの結果: 最高の機能サブセット。 0.79
−−−→ Ftop from AFS1top. AFS1から−−−−−Ftop。 0.49
−−−−−→ Fbottom from AFS1bottom. AFS1bottomの−−−−−→Fbottom 0.48
1 Sort feature subsets in AFS1 by their fitness values. 1 Sort は AFS1 のサブセットを適合度値で特徴付ける。 0.75
2 Get AFS1top and AFS1bottom from AFS1. AFS1からAFS1topとAFS1bottomを取得する。 0.62
3 Get 4 Get 5 Use Eq 4 WV2. 3 Get 4 Get 5 Eq 4 WV2を使う。 0.91
6 while O > 0 do 7 6, O>0 do 7。 0.79
AFS2O = The O feature subsets with the highest weight in WV2. AFS2O = O は WV2 で最も重い部分集合である。 0.74
// AFS2O represents the O-th feature subset in AFS2. AFS2O は AFS2 の O-th 機能サブセットを表す。 0.69
O=O-1 8 9 end 10 Evaluate the feature subsets inside AFS2. O=O-1 8 9 end 10 AFS2の機能サブセットを評価する。 0.61
11 Sort feature subsets in AFS2 by their fitness values. 11 SortはAFS2のサブセットをフィットネス値として特徴付ける。 0.73
12 return Feature subset that get the best fitness value in AFS2. AFS2で最高のフィットネス値を得るFeatureサブセットを返します。 0.74
Types of features Binary Categorical Numeric 特徴の種類 バイナリカテゴリー数値 0.69
Table 3: Type of features in NSL-KDD dataset. 表3: NSL-KDDデータセットの機能の種類。 0.77
Features [ f7, f12, f14, f15, f21, f22 ] [ f2, f3, f4 ] [ f1, f5, f6, f8, f9, f10, f11, f13, f16, f17, f18, f19, f20, f23, f24, f25, f26, f27, f28, f29, f30, f31, f32, f33, f34, f35, f36, f37, f38, f39, f40, f41 ] 特徴 f7, f12, f14, f21, f22 ] [ f2, f3, f4 ] [ f1, f5, f6, f8, f9, f10, f11, f13, f16, f17, f18, f19, f20, f23, f24, f25, f26, f27, f28, f29, f30, f31, f32, f33, f34, f35, f36, f37, f38, f39, f40, f41 ] 0.79
5. Experiments and results In his section, we introduced the dataset used for experiments. 5. 実験と結果 彼のセクションでは、実験に使われるデータセットを紹介した。 0.77
Data preprocessing is discussed. データ前処理について論じる。 0.61
We described the evaluation indicators and classifier used in this paper, fitness function is also be illustrated. 本稿では,評価指標と分類器について述べるとともに,適合度関数についても述べる。 0.67
In subsection 5.4, we implemented the proposed NFFS. 第5条4項で提案したNFFSを実装した。 0.56
In subsection 5.5, we described the results and compared the proposed method with several state-of-the-art feature selection methods. 第5条5項では,提案手法と最新の特徴選択法を比較した。 0.57
5.1. Dataset 5.1. データセット 0.66
NSL-KDD dataset (Tavallaee et al , 2009) and UNSW-NB15 (Tavallaee et al , 2009) dataset are used to evaluate the proposed feature selection method. NSL-KDDデータセット (Tavallaee et al , 2009) とUNSW-NB15データセット (Tavallaee et al , 2009) を用いて, 提案手法の評価を行った。 0.75
These two dataset are authoritative real-world dataset for intrusion detection domain. これら2つのデータセットは、侵入検出ドメインのための権威的実世界データセットである。 0.48
Also both datasets have been provided with ready-made training dataset and testing dataset. また、両方のデータセットには、準備済みのトレーニングデータセットとテストデータセットが提供されている。 0.51
It is not necessary to prepare the training dataset and test dataset by sampling from the unsegmented datase. 未分類のデータからサンプリングすることで、トレーニングデータセットとテストデータセットを準備する必要はない。 0.77
NSL-KDD dataset uses 41 features to represent a record, and each record is either an normal or attack. NSL-KDDデータセットは41のフィーチャを使用してレコードを表現し、各レコードはノーマルまたはアタックのいずれかである。 0.59
This dataset is a refined version of KDD Cup 99 dataset (Stolfo et al , 1999) and adds a item to represent the difficulty of classifying correctly. このデータセットは、KDD Cup 99データセット(Stolfo et al , 1999)の洗練されたバージョンであり、正しく分類することの難しさを表すアイテムを追加する。 0.74
UNSW-NB15 dataset consists of 42 features and a multiclass label and a binary label, here we only use the binary label. UNSW-NB15データセットは42の特徴と多クラスラベルとバイナリラベルで構成される。 0.65
There are no duplicate records in these two dataset. この2つのデータセットには重複したレコードはありません。 0.61
The features of NSL-KDD dataset are presented in Table 3 in a manner that is more friendly to machine learning (Pandey, 2019). NSL-KDDデータセットの特徴は、マシンラーニングにもっと親しみやすい方法でテーブル3に表示される(Pandey, 2019)。 0.73
Where ’fn’ represents the column n in the dataset file. ここで ’fn’ はデータセットファイル内の列 n を表す。 0.82
Table 4 show the features of UNSW-NB15 dataset in the same style. 表4はUNSW-NB15データセットの特徴を同じスタイルで示す。 0.80
As shown in Table 3 and Table 4, both dataset contains three categorical features. 表3と表4に示すように、データセットには3つのカテゴリがある。 0.65
Table 5 shows the distribution for NSL-KDD and UNSW-NB15. 表5はNSL-KDDとUNSW-NB15の分布を示す。 0.66
As the table shows that both dataset are relatively balanced. 表が示すように、両方のデータセットは比較的バランスが取れている。 0.59
5.2. Data preprocessing 5.2. データ前処理 0.76
The first step in the experiments is to process the nonnumerical marks in dataset. 実験の最初のステップは、データセットの非数値マークを処理することです。 0.79
Preprocessing consists of two items: convert categorical features into numeric features by one-hot encoding; convert symbolic labels into binary 前処理は2つの項目から構成される: 分類的特徴を1ホットエンコーディングで数値的特徴に変換する; 記号ラベルをバイナリに変換する 0.61
8 8 0.85
英語(論文から抽出)日本語訳スコア
Types of features Binary Categorical Numeric 特徴の種類 バイナリカテゴリー数値 0.69
Table 4: Type of features in UNSW-NB15 dataset. 表4: UNSW-NB15データセットの機能の種類。 0.72
Features [ f37, f42 ] [ f2, f3, f4 ] [ f1, f5, f6, f7, f8, f9, f10, f11, f12, f13, f14, f15, f16, f17, f18, f19, f20, f21, f22, f23, f24, f25, f26, f27, f28, f29, f30, f31, f32, f33, f34, f35, f36, f38, f39, f40, f41 ] 特徴 f37, f42 ] [ f2, f3, f4 ] [ f1, f5, f6, f7, f8, f9, f10, f11, f12, f13, f14, f15, f16, f17, f18, f19, f21, f22, f23, f24, f25, f26, f27, f28, f29, f30, f31, f32, f33, f34, f35, f38, f39, f40, f41 ] 0.80
Table 5: Summary quantitative information of NSL-KDD datatset and UNSW-15 dataset. 表5: NSL-KDDデータセットとUNSW-15データセットの定量的情報の概要。 0.65
Positive (Ratio) Negative (Ratio) 67343 (53.5%) 58630 (46.5%) 9711 (43.1%) 12833 (56.9%) 119341 (68.1%) 56000 (31.9%) 37000 (44.9%) 45332 (55.1%) 正(比)陰性(比)67343 (53.5%) 58630 (46.5%) 9711 (43.1%) 12833 (56.9%) 119341 (68.1%) 56000 (31.9%) 37000 (44.9%) 45332 (55.1%) 0.84
Datasat NSL-KDD Training dataset Testing dataset Training dataset Testing dataset Datasat NSL-KDD トレーニングデータセット テストデータセット トレーニングデータセット テストデータセット 0.65
UNSW-15 Partition UNSW-15 分割 0.59
labels. In the experiments, we used ’0’ denotes normal class while ’1’ denotes attack class in spite of the specific type of attack. ラベル。 実験では、’0’は通常のクラス、’1’は特定のタイプの攻撃にもかかわらず、攻撃クラスを示しました。 0.73
After one-hot encoding processed, 41 features inside NSL-KDD have been expanded to 122. ワンホット符号化処理後、NSL-KDD内の41の機能を122に拡張した。 0.63
5.3. Classifier related 5.3.1. 5.3. 分類法 5.3.1。 0.60
Classifier In this paper, random forest (Breiman, 2001) with PCA (Svante et al , 1987) is used as the classifier, and PCA is regarded as a part of the classifier rather than an independent processing step (Jia et al , 2016). 分類 本稿では, PCA (Svante et al , 1987) を用いたランダム林 (Breiman, 2001) を分類器として, PCA を独立処理ステップ (Jia et al , 2016) ではなく分類器の一部とみなす。 0.72
All feature subsets need to be evaluated by this classifier. すべての機能サブセットは、この分類器で評価する必要があります。 0.56
The PCA plays an important role as part of the classifier, the data will be processed by PCA before being fed into the classifier. PCAは分類器の一部として重要な役割を担い、データは分類器に入力される前にPCAによって処理される。 0.79
PCA can project data into an orthogonal feature space, which can remove redundant linear relationships from the original feature space. PCAはデータを直交的な特徴空間に投影することができ、元の特徴空間から冗長な線形関係を取り除くことができる。
訳抜け防止モード: PCAはデータを直交する特徴空間に投影できる 元の特徴空間から冗長な線形関係を取り除くことができます
0.87
PCA makes the classifier robuster and at the same time further decreases the computational cost. PCAは分類器をより堅牢にすると同時に、計算コストをさらに削減する。
訳抜け防止モード: PCAは分類器をより堅牢にし、 同時に計算コストをさらに削減します
0.88
Since PCA is a scale sensitive method, it needs the help of standardization. PCAはスケールに敏感な方法であるため、標準化の助けが必要である。 0.78
It is important to note that CARTbased random forest does not need standardization, standardization is only for PCA here. 注意すべき点は、CARTベースのランダムフォレストは標準化を必要とせず、標準化はPCAのみであることだ。 0.61
This classifier is also used to evaluate the feature selection methods from state-of-the-art related works. この分類器は最先端関連作品の特徴選択手法の評価にも用いられる。 0.78
5.3.2. Evaluation indicators 5.3.2. 評価指標 0.63
Different learning tasks in machine learning require different indicators, the evaluation indicators in this paper adopt generic nomenclature, rather than exclusive to a specific task. 機械学習における異なる学習タスクは、異なる指標を必要とするが、本論文の評価指標は、特定のタスクに限らず、一般的な命名法を採用する。
訳抜け防止モード: 機械学習における異なる学習タスクは異なる指標を必要とする。 本論文の評価指標は 特定のタスクに限らず 一般的な命名法を採用しています
0.71
Accuracy, recall, precision, F-score and AUC are used to evaluate feature subsets in this paper. 本論文の特徴的部分集合の評価には,精度,リコール,精度,Fスコア,AUCを用いる。 0.69
All indicators used can be calculated from the confusion matrix (Vinita and Hitendra, 2016), the confusion matrix is shown in Table 6, where the positive means attack class, while the negative means normal class. 使用されるすべての指標は、混乱行列(vinita and hitendra, 2016)から計算することができ、混乱行列は表6に示され、正は攻撃クラスを意味し、負は正規クラスを意味する。 0.75
The four parameters in table represent the number of records that match a certain condition: 表の4つのパラメータは、ある条件にマッチするレコードの数を表す。 0.84
TP (True Positive): Attack and predicted to be attack. tp (true positive): 攻撃され、攻撃と予測される。 0.79
TN (True Negative): Normal and predicted to be normal. TN (True Negative): 正常で、正規であると予測される。 0.74
FP (False Positive): Normal and predicted to be attack. FP (False Positive): 正常で、攻撃されると予測される。 0.77
Table 6: Binary confusion matrix. 表6: バイナリ混乱行列。 0.65
Predicted normal Predicted attack Actual normal Actual attack 予測正常 予測攻撃 現実の日常的攻撃 0.69
TN FN 9 FP TP TN FN 9 FP TP 0.85
英語(論文から抽出)日本語訳スコア
FN (False Negative): Attack and predicted to be attack. FN (False Negative): 攻撃され、攻撃されると予測される。 0.76
The evaluation indicators used in experiments are described as follows: 1. 実験で用いられる評価指標は以下の通りである。 0.70
Accuracy: Measure how many records are correctly classified as in Eq 5. 正確性: Eq 5で正しく分類されたレコード数を測定する。 0.86
2. Recall: Measures how many attacks could be discovered as in Eq 6. 2. 記憶:eq 6で発見された攻撃の数を計測する。 0.77
accurary = accurary = 0.85
T P + T N T P + T N + FP + FN T P + T N T P + T N + FP + FN 0.85
recall = T P T P + FN 思い出す= T P T P + FN 0.73
3. Precision: Measures how many attacks classified as attack are really attack as in Eq 7. 3. 精度:Eq 7のように、攻撃として分類された攻撃数を測定する。 0.79
precision = T P T P + FP 精度= T P T P + FP 0.82
4. F-score: A weighted average of the precision and recall as in Eq 8. 4. Fスコア:Eq 8のように精度とリコールの重み付き平均値。 0.81
F − score = 2 × (precision ∗ recall) f − score = 2 × (precision ∗ recall) 0.82
(precision + recall) (5) (精度+リコール) (5) 0.75
(6) (7) (8) (6) (7) (8) 0.85
5. AUC(Area Under the Receiver Operating Characteristic): Simply put it monitors the potential of the model 5. AUC(Area Under the Receiver Operating Characteristics): 単純にモデルの可能性を監視する。 0.82
(Fawcett, 2006). (Fawcett, 2006)。 0.76
Recall and precision are two of the mutually exclusive evaluation indicators. リコールと精度は、相互排他的評価指標の2つである。 0.63
A classifier can only achieve a high F-score if it obtains high values on both recall and precision. 分類器は、リコールと精度の両方で高い値を得る場合にのみ高いFスコアを達成することができる。 0.67
All evaluation indicators except AUC are in the range [0,1]. AUCを除くすべての評価指標は[0,1]の範囲にある。 0.75
The maximum value of AUC is 1, while the minimum value is 0.5. AUCの最大値は1、最小値は0.5である。 0.76
If a classifier makes a random decision, then its AUC will be 0.5. 分類器がランダムな決定を下すと、AUCは0.5となる。 0.79
5.3.3. Fitness function 5.3.3. フィットネス機能 0.64
In the search for the optimal feature subset, we use only F-score to constitute fitness function without considering the number of features in feature subset, which is based on two considerations: the F-score is a comprehensive indicator; and NFFS is not a wrapper method, there is no comparison of independent feature subsets. Fスコアは包括的指標であり, NFFSはラッパー法ではなく, 独立した特徴部分集合の比較は存在しない。
訳抜け防止モード: 最適な特徴部分集合の探索において、特徴部分集合における特徴数を考慮することなく、適合関数を構成するためにFスコアのみを用いる。 これは2つの考察に基づいています F-スコアは包括的な指標である NFFSはラッパーメソッドではなく、独立した機能サブセットの比較はない。
0.78
Note that fitness function is used to search for the optimal feature subset, while evaluation indicators are used to evaluate the final result. 適合度関数は最適な特徴部分集合を探索するために使用され、評価指標は最終結果を評価するために使われる。 0.80
5.4. Perform feature selection 5.4. パフォーマンスの特徴選択 0.72
Scikit-learn is a Python module for machine learning. Scikit-learnは、機械学習のためのPythonモジュールである。 0.69
In this paper, experiments were completed by Scikit-learn (Pedregosa et al , 2011). 本稿では, scikit-learn (pedregosa et al , 2011) による実験を行った。 0.87
The quality of a feature subset needs to be judged by its fitness value, but the fitness value from the classifier is highly dependent on the parameters used to train the classifier. 機能サブセットの品質は、その適合度値から判断する必要があるが、分類器からの適合度値は、分類器のトレーニングに使用されるパラメータに大きく依存する。 0.79
To solve this problem, we adopt the strategy of testing a feature subset with multiple groups of parameters, and the average value is used as the fitness value of the feature subset. この問題を解決するために,複数のパラメータ群を持つ機能サブセットをテストする戦略を採用し,その平均値を機能サブセットの適合値として用いる。 0.80
5.4.1. Phase I of NFFS 5.4.1. NFFSのフェーズI 0.62
Fig. 3 shows the MI values of features in NSL-KDD dataset, from which it can be seen that the majority of features hold tiny MI values. フィギュア。 nsl-kddデータセットの機能のmi値を示しており、機能の大部分は小さなmi値を持っていることが分かる。 0.51
The threshold taken in NSL-KDD dataset is 0.05, and it is indicated by a red vertical line in Fig 3. NSL-KDDデータセットの閾値は0.05であり、図3の赤い垂直線で示される。 0.80
As shown in figure, a large number of features would hold a weight of 0.5 after calculation by Eq 2. 図に示すように、多くの特徴はeq 2で計算した後、0.5の重みを持つ。 0.80
However, the final optimal feature subset show that majority of features are eliminated as well. しかし、最終的な最適機能サブセットは、機能の大部分が削除されていることを示している。 0.58
After obtaining WV1 via Eq 2, Eq 3 was used to generate 180 feature subsets, which constituted AFS1. Eq 2でWV1を得た後、Eq 3は180個の機能サブセットを生成し、AFS1を構成した。 0.62
We wanted to get a glimpse of the power of PCA. 私たちはPCAのパワーを垣間見たかった。 0.61
Fig 4 shows the performance of feature subsets in AFS1. 図4は、AFS1の機能サブセットのパフォーマンスを示しています。 0.68
As can be observed in the figure, the classifier with PCA shifts the bar significantly to the right, which means fitness values of feature subsets is significantly improved by PCA. 図に示すように、PCAの分類器はバーを右に大きくシフトさせるので、PCAによって特徴サブセットの適合値が大幅に改善される。 0.74
The reason is that PCA removes linearly correlated redundant information from the input data, which allows a robuster classifier. PCAは入力データから線形に相関した冗長情報を除去し、より堅牢な分類を可能にする。 0.75
Note that, this is just to a test of the significance of PCA, elsewhere PCA always accompanies classifier around. 注意すべき点は、これは単にPCAの重要性のテストにすぎず、他のPCAは常に分類器を伴っていることである。 0.59
10 10 0.85
英語(論文から抽出)日本語訳スコア
Figure 3: Distribution for MI values of features in NSL-KDD dataset. 図3: nsl-kddデータセットの機能のmi値の分散。 0.68
Figure 4: Distribution for fitness values of feature subsets in AFS1. 図4: AFS1の機能サブセットの適合度値の分布。 0.84
11 0.00.10.20.30.40.50. 6MI020406080Number of features0.650.700.75 0.800.850.90Fitness value01020304050Numb er of feature subsetsWithout PCAPCA 11 0.00.10.20.30.40.50. 6mi020406080 number of features0.650.700.75 0.800.850.90fitness value01020304050numb er of feature subsetswithout pcapca 0.54
英語(論文から抽出)日本語訳スコア
Figure 5: Distribution for fitness values of feature subsets in AFS1 and AFS2. 図5: AFS1 と AFS2 の機能サブセットの適合度値の分布。 0.88
5.4.2. Phase II of NFFS 5.4.2. NFFSの第II相 0.68
In experiments, 45 feature subsets with higher fitness values from AFS1 were selected to constitute AFS1top and 45 features with lower F-score were selected to constitute AFS1bottom. 実験では,afs1の適合度が高い45の機能サブセットをafs1topに,低f-scoreの45機能サブセットをafs1bottomに選択した。 0.68
After counting frequencies, WV2 can be calculated by Eq 4, which were used to generate 70 feature subsets to constitute AFS2. 周波数をカウントした後、WV2をEq 4で計算し、AFS2を構成する70個の特徴部分集合を生成する。 0.65
Fig. 5 shows the performance of feature subsets in AFS1 and AFS2. フィギュア。 AFS1とAFS2の機能サブセットのパフォーマンスを示している。 0.59
As figure shown, feature subsets in AFS2 hold distinct advantages, which suggests that phase II of NFFS plays a significant role. 図に示すように、AFS2の機能サブセットには、異なる利点があり、NFFSのフェーズIIが重要な役割を果たすことを示唆している。 0.66
It can also be seen that the feature subsets in AFS2 performed more stably. また、AFS2の機能サブセットはより安定して機能している。 0.62
The phase II of NFFS is based on the phase I of NFFS but is far superior to it. NFFSのフェーズIIは、NFFSのフェーズIに基づいているが、それよりもはるかに優れている。 0.78
5.5. Result The related works used to compared with NFFS and the features they selected from NSL-KDD are summarized in Table 7. 5.5. 結果 NFFSと比較に使用した関連作業とNSL-KDDから選択した特徴を表7にまとめる。 0.76
Where the number outside the parentheses in the third column (NF) denote the number of encoded features (encoded by one-hoting encoding), while the number inside the parentheses denote the number of original features. 第3列(nf)の括弧外の番号が符号化された特徴数(一方のホットエンコーディングによって符号化される)を表し、一方、括弧内の数字が元の特徴数を表す。 0.76
It can be noticed that the feature subset selected by NFFS is reported with the encoded format, that is because NFFS is selecting features directly from the encoded feature space. NFFSが選択した機能サブセットが、符号化されたフォーマットで報告されていることは、NFFSが符号化された特徴空間から直接機能を選択するためである。 0.74
Regarding the format of the features selected by NFFS, for example, f2 tcp indicates the category ‘tcp’ in the 2-th feature (communication protocol). NFFS が選択した特徴の形式については、例えば f2 tcp は2番目の特徴(通信プロトコル)のカテゴリ 'tcp' を示す。 0.86
In order to fairly compare the quality of the feature subsets found by each feature selection method, we need to train a separate classifier for each feature subset. 各特徴選択メソッドで見つかる特徴サブセットの品質を正確に比較するためには、各特徴サブセットに対して個別の分類器を訓練する必要があります。 0.80
For each feature subset reported in Table 7, we searched for the best parameters to build a classifier for it. テーブル7で報告されている各機能サブセットについて、私たちは、分類器を構築するための最良のパラメータを検索しました。 0.56
During the search for the optimal parameters, the explanation ratio of PCA was always set to 0.93. 最適パラメータの探索では,PCAの説明率は常に0.93に設定された。 0.89
Thirty different random seeds was used to perform 30 runs to obtain means and standard deviations to compose the results of the method. 30種類の異なるランダム種子を用いて30回のランを行い、標準偏差を求め、その結果を合成した。 0.75
The 30 random seeds used are integers from 7 to 36, and the random seeds start from 7 simply because we believe that 7 represents luck. 30個のランダムシードは7から36の整数で、7は幸運を表すと信じているだけで7から始まります。 0.69
The fixed random seed allows the experimental results to be accurately reproduced. 固定ランダムシードは実験結果を正確に再現することを可能にする。 0.69
Each feature subset in Table 7 was fed to the customized classifier for evaluation, and the evaluation results are presented in Table 8. 表7の各特徴サブセットをカスタマイズした分類器に入力して評価を行い、評価結果を表8に表示する。 0.86
Based on the results shown in Table 8, NFFS obtain the best score in terms of accuracy, precision, recall, F-score and AUC. 表8に示す結果に基づいて、NFFSは精度、精度、リコール、Fスコア、AUCの点で最高のスコアを得る。 0.60
F-score and AUC are relatively more comprehensive and pertinent indicators in machine learning, and Fig 6 visualizes these two indicators from Table 8. FスコアとAUCは機械学習において比較的包括的で関連する指標であり、Fig 6はテーブル8からこれらの2つの指標を視覚化する。 0.62
Where each bar represent mean and standard deviation of each method. 各バーは各メソッドの平均偏差と標準偏差を表す。 0.85
As shown in Fig 6, NFFS achieves the highest F-score and AUC. 図6に示すように、NFFSは最高FスコアとAUCを達成する。 0.71
For F-score, NFFS gains an absolute victory without any doubt. Fスコアの場合、NFFSは間違いなく絶対勝利を収める。 0.78
For AUC, NFFS not only achieved the highest score, but also hold the smallest standard. AUCにとって、NFFSは最高点を獲得しただけでなく、最小基準も保持している。 0.63
UNSW-NB-15 is another dataset used to evaluate the NFFS. UNSW-NB-15はNFFSの評価に用いられる別のデータセットである。 0.58
Table 9 reports the selected feature subsets from UNSW-NB15 dataset. 表9はUNSW-NB15データセットから選択された特徴サブセットを報告します。 0.56
The format of Table 9 is the same as that of Table 7. テーブル9のフォーマットはテーブル7と同じである。 0.65
Table 10 show the results of realted works 表10は実作品の結果を示します 0.85
12 0.650.700.750.800.85 0.90Fitness value051015202530354 0Number of feature subsetsAFS1AFS2 12 0.650.700.750.800.85 0.90Fitness value051015202530354 0Number of feature subsetsAFS1AFS2 0.57
英語(論文から抽出)日本語訳スコア
Table 7: Results of several feature selection methods applied to the NSL-KDD dataset. 表7: NSL-KDDデータセットに適用されたいくつかの特徴選択手法の結果。 0.65
Reference Method (Enache and Sgarciu, 2015) BAT 参照 方法 (Enache and Sgarciu, 2015)BAT 0.77
(Ambusaidi et al , 2016) (Ambusaidi et al , 2016) 0.85
LSSVM NF 89(18) LSSVM NF 89(18) 0.85
97(18) (Moustafa and Slay, 2017) 97(18) (Moustafa and Slay, 2017) 0.85
Hybrid Association Rules ハイブリッドアソシエーションルール 0.69
13(11) (Aljawarneh et al , 2017) (Tama et al , 2019) 13(11) (Aljawarneh et al , 2017)(Tama et al , 2019) 0.85
IG PSO (Alazzam et al , 2020) IG PSO (Alazzam et al , 2020) 0.85
Sigmoid PIO Sigmoid PIO 0.85
(Alazzam et al , 2020) Proposed method (Alazzam et al , 2020)提案方法 0.81
Cosine PIO NFFS Cosine PIO NFFS 0.85
87(8) 118(37) 87(8) 118(37) 0.85
98(18) 7(5) 34(11) 98(18) 7(5) 34(11) 0.85
Selected feature subset 選択された機能サブセット 0.58
[ f1, f2, f3, f8, f9, f13, f14, f18, f19, f20, f26, f28, f32, f33, f34, f38, f39, f40 ] [ f3, f4, f5, f6, f12, f23, f25, f26, f28, f29, f30, f33, f34, f35, f36, f37, f38, f39 ] [ f2, f5, f6, f7, f12, f16, f23, f28, f31, f36, f37 ] [ f3, f4, f5, f6, f29, f30, f33, f34 ] [ f2, f3, f4, f5, f6, f7, f8, f9, f10, f11, f12, f13, f14, f15, f17, f18, f20, f21, f22, f23, f24, f25, f26, f27, f28, f29, f31, f32, f33, f34, f35, f36, f37, f38, f39, f40, f41 ] [ f1, f3, f4, f5, f6, f8, f10, f11, f12, f13, f14, f15, f17, f18, f27, f32, f36, f39, f41 ] [ f2, f6, f10, f22, f27 ] [ f3 auth, f3 IRC, f3 csnet ns, f3 ctf, f3 daytime, f3 discard, f3 ecr i, f3 http 8001, f3 imap4, f3 login, f3 pop 2, f3 name, f3 pop 3, f3 telnet, f3 urh i, f4 OTH, f4 RSTO, f4 RSTOS0, f4 RSTR, f4 S1, f4 SF, f6, f7, f9, f10, f21, f30, f40, f41 ] [ f1, f2, f3, f8, f9, f13, f14, f18, f19, f20, f26, f28, f32, f33, f34, f38, f39, f40 ] [ f3, f4, f5, f6, f12, f23, f25, f26, f28, f29, f30, f33, f34, f35, f36, f37, f38, f39 ] [ f2, f5, f6, f7, f12, f16, f23, f28, f31, f36, f37 ] [ f3, f4, f5, f6, f29, f30, f33, f34 ] [ f2, f3, f4, f5, f6, f7, f8, f9, f10, f11, f12, f13, f14, f15, f17, f18, f20, f21, f22, f23, f24, f25, f26, f27, f28, f29, f31, f32, f33, f34, f35, f36, f37, f38, f39, f40, f41 ] [ f1, f3, f4, f5, f6, f8, f10, f11, f12, f13, f14, f15, f17, f18, f27, f32, f36, f39, f41 ] [ f2, f6, f10, f22, f27 ] [ f3 auth, f3 IRC, f3 csnet ns, f3 ctf, f3 daytime, f3 discard, f3 ecr i, f3 http 8001, f3 imap4, f3 login, f3 pop 2, f3 name, f3 pop 3, f3 telnet, f3 urh i, f4 OTH, f4 RSTO, f4 RSTOS0, f4 RSTR, f4 S1, f4 SF, f6, f7, f9, f10, f21, f30, f40, f41 ] 0.81
f3 netbios ssn, f3 netbios ssn。 0.92
f2 icmp, f3 aol, f2 icmp。 f3 aol。 0.85
f3 rje, f3 supdup, f3 rje。 f3 supdup! 0.80
Methods BAT LSSVM Hybrid Association Rules IG PSO Sigmoid PIO Cosine PIO NFFS BAT LSSVM Hybrid Association Rules IG PSO Sigmoid PIO Cosine PIO NFFS 0.75
Table 8: The performances of the feature subsets in Table 7. 表8: Table 7の機能サブセットのパフォーマンス。 0.64
Precision±std 0.962±0.011 0.904±0.002 0.956±0.009 0.898±0.002 0.948±0.021 0.921±0.001 0.926±0.003 0.963±0.005 Precision±std 0.962±0.011 0.904±0.002 0.956±0.009 0.898±0.002 0.948±0.021 0.921±0.001 0.926±0.003 0.963±0.005 0.20
Accuracy±std 0.815±0.016 0.859±0.010 0.776±0.011 0.825±0.017 0.800±0.021 0.796±0.006 0.861±0.022 0.897±0.015 Accuracy±std 0.815±0.016 0.859±0.010 0.776±0.011 0.825±0.017 0.800±0.021 0.796±0.006 0.861±0.022 0.897±0.015 0.20
Recall±std 0.704±0.029 0.842±0.019 0.636±0.020 0.781±0.032 0.687±0.035 0.702±0.011 0.821±0.040 0.852±0.028 Recall±std 0.704±0.029 0.842±0.019 0.636±0.020 0.781±0.032 0.687±0.035 0.702±0.011 0.821±0.040 0.852±0.028 0.20
F-score±std 0.812±0.019 0.871±0.011 0.763±0.015 0.835±0.018 0.796±0.025 0.797±0.007 0.870±0.023 0.904±0.016 F-score±std 0.812±0.019 0.871±0.011 0.763±0.015 0.835±0.018 0.796±0.025 0.797±0.007 0.870±0.023 0.904±0.016 0.19
AUC±std 0.838±0.014 0.921±0.007 0.802±0.012 0.927±0.005 0.819±0.020 0.880±0.022 0.910±0.009 0.938±0.001 AUC±std 0.838±0.014 0.921±0.007 0.802±0.012 0.927±0.005 0.819±0.020 0.880±0.022 0.910±0.009 0.938±0.001 0.20
13 13 0.85
英語(論文から抽出)日本語訳スコア
err 翻訳エラー 0.00
英語(論文から抽出)日本語訳スコア
Methods Hybrid Association Rules PSO Rule-Based NFFS PSO規則に基づくNFFSのハイブリットアソシエーションルール 0.79
Table 10: The performances of the feature subsets in Table 9. 表10: 表9にある機能サブセットのパフォーマンス。 0.68
Precision±std 0.762±0.001 0.768±0.003 0.797±0.002 0.818±0.004 精度±std 0.762±0.001 0.768±0.003 0.797±0.002 0.818±0.004 0.22
Accuracy±std 0.816±0.001 0.827±0.003 0.849±0.002 0.871±0.003 精度±std 0.816±0.001 0.827±0.003 0.849±0.002 0.871±0.003 0.22
Recall±std 0.968±0.001 0.983±0.004 0.973±0.003 0.985±0.001 リコール±std 0.968±0.001 0.983±0.004 0.973±0.003 0.985±0.001 0.22
F-score±std 0.853±0.001 0.862±0.002 0.876±0.002 0.893±0.002 Fスコア±std 0.853±0.001 0.862±0.002 0.876±0.002 0.893±0.002 0.21
AUC±std 0.937±0.001 0.960±0.002 0.962±0.002 0.977±0.002 AUC±std 0.937±0.001 0.960±0.002 0.962±0.002 0.977±0.002 0.22
and NFFS. The format of Table 10 is the same as that of Table 8, the data therein are also derived from 30 runs. NFFS。 テーブル10のフォーマットはテーブル8と同じで、そのデータも30回のランから導出される。 0.59
As the table shows, NFFS get the best result against other method in term of the five indicators. 表が示すように、NFFSは5つの指標の観点で他の方法に対して最良の結果を得る。 0.72
6. Conclusion In this work, a concise method for feature selection is proposed to overcome the shortcomings of metaheuristic algorithms. 6. 結論 本研究では,メタヒューリスティックアルゴリズムの欠点を克服するために,特徴選択のための簡潔な手法を提案する。 0.72
The proposed method is divided into two phases to implement feature selection. 提案手法は,2段階に分けて特徴選択を行う。 0.78
The proposed method is based on the following ideas: (Phase I) If the filter method considers a feature of higher importance, then the feature is selected with higher probability in the generation of feature subsets; (Phase II) If a feature is often contained by the feature subsets that perform well, while rarely being contained by the feature subsets that perform poorly, it means that the feature is beneficial to the classifier, the opposite means that the feature is harmful to the classifier. 提案手法は以下の考え方に基づいている: (Phase I) フィルタ法がより重要度の高い特徴を考慮すれば、特徴部分集合の生成において高い確率で特徴が選択される; (Phase II) 特徴がよく機能する特徴部分集合に含まれることが多いが、性能が劣る特徴部分集合にはほとんど含まれない場合、その特徴が分類器に有益であることを意味するが、その逆は特徴が分類器に有害であることを意味する。 0.84
In order to provide sufficient feature subsets with diverse performances for phase II. フェーズIIの多様なパフォーマンスを備えた十分な機能サブセットを提供する。 0.68
We generated the feature subsets by probability in phase I, which allowed the generated feature subsets better than the randomly generated ones. 生成した特徴部分集合は、ランダムに生成された部分集合よりも優れたものとなり、第i相の確率で特徴部分集合を生成する。
訳抜け防止モード: 特徴部分集合を第i相の確率で生成し 生成した機能サブセットは、ランダムに生成されたものよりも優れている。
0.71
We used experiments to illustrate the reasons why the two phases used different strategies to generate feature subsets. 実験によって、2つのフェーズが異なる戦略を使って機能サブセットを生成する理由を説明しました。 0.62
The experimental results indicate that the proposed method outperformed several methods from state-of-theart related works in terms of precision, recall, accuracy, F-score and AUC. 実験結果から,提案手法は,精度,リコール,精度,Fスコア,AUCの点で,最先端の手法よりも優れていた。 0.67
Future researches can investigate the use of clustering to optimize the efficiency of encoding and the application 今後の研究は、符号化の効率と応用を最適化するためのクラスタリングの利用を検討することができる。 0.62
of the proposed method to semi-supervised learning. 半教師付き学習のための提案手法について 0.55
References Alazzam, H., Sharieh, A., Sabri, K.E., 2020. 参考文献 Alazzam, H., Sharieh, A., Sabri, K.E., 2020 0.78
A feature selection algorithm for intrusion detection system based on pigeon inspired optimizer. ハトにインスパイアされたオプティマイザに基づく侵入検知システムの特徴選択アルゴリズム 0.73
Aljawarneh, S., Aldwairi, M., Yasin, M., 2017. Aljawarneh, S., Aldwairi, M., Yasin, M., 2017 0.75
Anomaly-based intrusion detection system through feature selection analysis and building hybrid 特徴選択分析とビルディングハイブリッドによる異常型侵入検知システム 0.82
Ambusaidi, M.A., He, X., Nanda, P., Tan, Z., 2016. Ambusaidi, M.A., He, X., Nanda, P., Tan, Z., 2016 0.86
Building an intrusion detection system using a filter-based feature selection algorithm. フィルタに基づく特徴選択アルゴリズムを用いた侵入検知システムの構築 0.87
IEEE Expert Systems With Applications 148, 113249. IEEE アプリケーション148,13249のエキスパートシステム。 0.75
efficient model. Journal of Computational Science 25. 効率的なモデル。 Journal of Computational Science 25(英語) 0.71
Transactions on Computers 65, 2986–2998. コンピュータのトランザクション 65, 2986–2998。 0.76
Amiri, F., Rezaei Yousefi, M., Lucas, C., Shakery, A., Yazdani, N., 2011. Amiri, F., Rezaei Yousefi, M., Lucas, C., Shakery, A., Yazdani, N., 2011 0.77
Mutual information-based feature selection for intrusion detection 侵入検知のための相互情報に基づく特徴選択 0.71
systems. J. Network and Computer Applications 34, 1184–1199. システム。 J。 Network and Computer Applications 34, 1184–1199 0.79
Battiti, R., 1994. Battiti, R., 1994年。 0.90
Using mutual information for selecting features in supervised neural net learning. 教師付きニューラルネット学習における特徴選択のための相互情報の利用 0.68
IEEE Transactions on Neural Networks 5, IEEE Transactions on Neural Networks 5 0.72
537–550. BAS¸, E., ¨Ulker, E., 2020. 537–550. BAS、E.、Ulker、E.、2020。 0.77
An efficient binary social spider algorithm for feature selection problem. 特徴選択問題に対する効率的な二元的ソーシャルスパイダーアルゴリズム 0.72
Expert Systems with Applications 146, 113185. 出願146,113185のエキスパートシステム。 0.66
Blake, C., Keogh, E., Merz, C., 1998. Blake, C., Keogh, E., Merz, C., 1998 0.76
Uci repository of machine learning databases . 機械学習データベースのUciリポジトリ。 0.71
Bontempi, G., 2005. On the use of feature selection to deal with the curse of dimensionality in microarray datasets. G.、2005年。 マイクロアレイデータセットにおける次元の呪いに対する特徴選択の利用について 0.65
Nuclear Instruments and Methods in Physics Research 39, 115–119. 原子力機器 物理研究39,115-119。 0.62
Breiman, L., 2001. ブレイマン、2001年。 0.52
Random forests. Machine learning 45, 5–32. ランダムな森。 機械学習45-5-32。 0.70
Casado, S., 2009. カサド、2009年。 0.29
Casado yusta, s.: Different metaheuristic strategies to solve the feature selection problem. Casado Yusta, s.: 特徴選択問題を解決するメタヒューリスティック戦略の違い。 0.78
pattern recognition letters 30, 525-534. パターン認識文字30,525-534。 0.77
Chuang, L.Y., Chang, H.W., Tu, C.J., Yang, C.H., 2008. Chuang, L.Y., Chang, H.W., Tu, C.J., Yang, C.H., 2008 0.85
Improved binary pso for feature selection using gene expression data. 遺伝子発現データを用いた特徴選択のためのバイナリpsoの改良 0.71
Computational Duan, H., Qiao, P., 2014. 計算 2014年、Duan, H., Qiao, P.。 0.76
Pigeon-inspired optimization: a new swarm intelligence optimizer for air robot path planning. pigeon-inspired optimization: 航空ロボットの経路計画のための新しいswarm intelligenceオプティマイザ。 0.74
International Journal of Pattern Recognition Letters 30, 525–534. 国際学術誌 パターン認識文字 30 525-534。 0.77
Biology and Chemistry 32, 29–38. 生物化学32, 29-38。 0.75
Intelligent Computing and Cybernetics 7, 24–37. Intelligent Computing and Cybernetics 7, 24–37。 0.91
Enache, A., Sgarciu, V., 2015. Enache, A., Sgarciu, V., 2015年。 0.89
Anomaly intrusions detection based on support vector machines with an improved bat algorithm , 317–321. 改良されたバットアルゴリズムによる支持ベクトルマシンによる異常侵入検出,317-321。 0.78
Estevez, P.A., Tesmer, M., Perez, C.A., Zurada, J.M., 2009. Estevez, P.A., Tesmer, M., Perez, C.A., Zurada, J.M., 2009 0.92
Normalized mutual information feature selection. 正規化相互情報特徴選択 0.57
IEEE Transactions on Neural IEEE Transactions on Neural 0.85
Fawcett, T., 2006. Fawcett, T., 2006。 0.82
An introduction to roc analysis. Pattern Recognition Letters 27, 861–874. roc分析入門。 パターン認識文字 27, 861-874。 0.65
Guyon, I., Elisseeff, A., 2003. Guyon, I., Elisseeff, A., 2003 0.74
An introduction of variable and feature selection. 変数選択と特徴選択の導入。 0.69
J. Machine Learning Research Special Issue on Variable and J。 機械学習研究の特集号によせて 0.75
Networks 20, p.189–201. ネットワーク20p.189-201。 0.64
Feature Selection 3, 1157 – 1182. 文治2年(1157年)-寿永2年(1182年) 0.14
15 15 0.85
英語(論文から抽出)日本語訳スコア
Hanchuan Peng, Fuhui Long, Ding, C., 2005. hanchuan peng, fuhui long, ding, c., 2005年。 0.67
Feature selection based on mutual information criteria of max-dependency, max-relevance, and 最大依存性、最大関連性、および相互情報基準に基づく特徴選択 0.87
min-redundancy. min-redundancy 0.75
IEEE Transactions on Pattern Analysis and Machine Intelligence 27, 1226–1238. IEEE Transactions on Pattern Analysis and Machine Intelligence 27 1226-1238 0.78
Ibrahim, A.M., Tawhid, M.A., Ward, R.K., 2020. Ibrahim, A.M., Tawhid, M.A., Ward, R.K., 2020 0.87
A binary water wave optimization for feature selection. 特徴選択のための二成分水波の最適化 0.83
International Journal of Approximate International Journal of Approximate (英語) 0.60
Jia, J., Xu, Y., Zhang, S., Xue, X., 2016. Jia, J., Xu, Y., Zhang, S., Xue, X., 2016 0.79
The facial expression recognition method of random forest based on improved pca extracting feature , 改良pca抽出特徴に基づく無作為林の表情認識法 0.53
Reasoning 120, 74–91. 120, 74-91。 0.74
1–5. and Security 92, 101752. 1–5. セキュリティ92、101752。 0.61
114, 163–191. 114, 163–191. 0.84
system. Security and Privacy . システム セキュリティとプライバシー。 0.58
Intelligence 48, 3462–3481. インテリジェンス48、3462-3481。 0.58
Kasongo, S.M., Sun, Y., 2020. Kasongo, S.M., Sun, Y., 2020 0.90
A deep learning method with wrapper based feature extraction for wireless intrusion detection system. 無線侵入検知システムにおけるラッパーに基づく特徴抽出を用いた深層学習手法 0.87
Computers Kohavi, R., John, G.H., 1997. コンピュータ Kohavi, R., John, G.H., 1997年。 0.84
Wrappers for feature subset selection. 機能サブセット選択用のラッパー。 0.70
Artificial Intelligence 97, 273–324. 人工知能 97, 273-324。 0.70
Kraskov, A., Stogbauer, H., Grassberger, P., 2004. kraskov, a., stogbauer, h., grassberger, p., 2004年。 0.79
Estimating mutual information. Physical Review E 69, 066138. 相互情報の推定。 フィジカル・レビュー e 69, 066138。 0.73
Kwak, N., Choi, C.H., 2002. Kwak, N., Choi, C.H., 2002 0.89
Choi, c.: Input feature selection for classification problems. Choi, c.: 分類問題に対する入力特徴選択。 0.88
ieee trans. Eee Trans. 0.75
on neural networks 13, 143-159. ニューラルネットワークでは、143-159。 0.69
IEEE transactions on neural networks / a publication of the IEEE Neural Networks Council 13, 143–59. IEEE transactions on neural networks / a publication of the ieee neural networks council 13 143–59 (英語) 0.83
Li, J., Liu, H., 2017. Li, J., Liu, H., 2017年。 0.87
Challenges of feature selection for big data analytics. ビッグデータ分析における機能選択の課題 0.77
IEEE Intelligent Systems 32, 9–15. IEEE Intelligent Systems 32, 9-15。 0.85
Li, J., Si, Y., Xu, T., Jiang, S., 2018. Li, J., Si, Y., Xu, T., Jiang, S., 2018 0.78
Deep convolutional neural network based ecg classification system using information fusion and one-hot 情報融合とワンホットを用いた深部畳み込みニューラルネットワークを用いたecg分類システム 0.74
encoding techniques. Mathematical Problems in Engineering 2018, 1–10. 符号化技術。 工学における数学問題 2018, 1-10。 0.70
Mirjalili, S., Gandomi, A.H., Mirjalili, S.Z., Saremi, S., Faris, H., Mirjalili, S.M., 2017. Mirjalili, S., Gandomi, A.H., Mirjalili, S.Z., Saremi, S., Faris, H., Mirjalili, S.M., 2017 0.97
Salp swarm algorithm. Salp Swarmアルゴリズム。 0.74
Advances in Engineering Software エンジニアリングソフトウェアの進歩 0.77
Moustafa, N., Slay, J., 2017. Moustafa, N., Slay, J., 2017年。 0.86
A hybrid feature selection for network intrusion detection systems: Central points . ネットワーク侵入検知システムにおけるハイブリッドな特徴選択:中央点 0.82
Pandey, S.K., 2019. pandey, s.k., 2019年。 0.63
Design and performance analysis of various feature selection methods for anomaly-based techniques in intrusion detection 侵入検知における異常に基づく様々な特徴選択手法の設計と性能解析 0.88
Pedregosa, F., Varoquaux, G., Gramfort, A., Michel, V., Thirion, B., Grisel, O., Blondel, M., Prettenhofer, P., Weiss, R., Dubourg, V., et al , 2011. Pedregosa, F., Varoquaux, G., Gramfort, A., Michel, V., Thirion, B., Grisel, O., Blondel, M., Prettenhofer, P., Weiss, R., Dubourg, V., et al , 2011 0.82
Scikit-learn: Machine learning in python. scikit-learn: pythonのマシンラーニング。 0.82
Journal of Machine Learning Research 12, 2825–2830. Journal of Machine Learning Research 12, 2825–2830 0.86
Sayed, G.I., Khoriba, G., Haggag, M.H., 2018. G.I., Khoriba, G., Haggag, M.H., 2018 0.80
A novel chaotic salp swarm algorithm for global optimization and feature selection. グローバル最適化と特徴選択のための新しいカオスsalp swarmアルゴリズム。 0.77
Applied Seth, J.K., Chandra, S., 2016. 応用 Seth, J.K., Chandra, S., 2016 0.78
Intrusion detection based on key feature selection using binary gwo , 3735–3740. バイナリgwoを用いたキー特徴選択に基づく侵入検出3735-3740。 0.75
Stolfo, S., Fan, W., Lee, W., Prodromidis, A., Chan, P., 1999. Stolfo, S., Fan, W., Lee, W., Prodromidis, A., Chan, P., 1999 0.80
Cost-based modeling and evaluation for data mining with application to fraud and データマイニングのコストベースモデリングと評価と詐欺・詐欺への応用 0.83
intrusion detection: Results from the jam project . 侵入検知: jamプロジェクトの結果。 0.60
Svante, Wold, , , Kim, Esbensen, , , Paul, Geladi, 1987. svante, wold, , , , kim, esbensen, , , paul, geladi, 1987 年。 0.76
Principal component analysis. Chemometrics and Intelligent Laboratory Systems . 主成分分析。 化学計測と知能実験システム 0.65
Tama, B.A., Comuzzi, M., Rhee, K., 2019. Tama, B.A., Comuzzi, M., Rhee, K., 2019 0.89
Tse-ids: A two-stage classifier ensemble for intelligent anomaly-based intrusion detection system. tse-ids:インテリジェントな異常検出システムのための2段階の分類器アンサンブル。 0.67
IEEE Access 7, 94497–94507. IEEE Access 7, 94497-94507。 0.85
Tavallaee, M., Bagheri, E., Lu, W., Ghorbani, A.A., 2009. Tavallaee, M., Bagheri, E., Lu, W., Ghorbani, A.A., 2009 0.88
A detailed analysis of the kdd cup 99 data set , 53–58. kddカップ99データセットの詳細な解析 , 53-58。 0.77
Trelea, I.C., 2003. トレレア、2003年。 0.58
The particle swarm optimization algorithm: Convergence analysis and parameter selection. 粒子群最適化アルゴリズム:収束解析とパラメータ選択。 0.76
Information Processing Letters 85, 情報処理用レター85 0.68
Vinita, R., Hitendra, D., 2016. vinita, r., hitendra, d., 2016年。 0.79
Performance evaluation of attack detection algorithms using improved hybrid ids with online captured data. 改良型ハイブリッドIDとオンラインキャプチャデータを用いた攻撃検出アルゴリズムの性能評価 0.85
International Journal of Computer Applications 146, 35–40. international journal of computer applications 146, 35–40。 0.87
Wang, X., Yang, J., Teng, X., Xia, W., Jensen, R., 2007. Wang, X., Yang, J., Teng, X., Xia, W., Jensen, R., 2007 0.81
Feature selection based on rough sets and particle swarm optimization. 粗集合と粒子群最適化に基づく特徴選択 0.72
Pattern Recognition Yang, X.S., 2012. パターン認識 yang, x.s., 2012年。 0.70
Metaheuristic optimization: Algorithm analysis and open problems . メタヒューリスティック最適化:アルゴリズム解析とオープン問題。 0.75
Yu, L., Liu, H., 2003. Yu, L., Liu, H., 2003年。 0.89
Feature selection for high-dimensional data: a fast correlation-based filter solution , 856–863. 高次元データの特徴選択:高速相関型フィルタ解 , 856–863。 0.81
Zainal, A., Maarof, M.A., Shamsuddin, S.M., 2006. Zainal, A., Maarof, M.A., Shamsuddin, S.M., 2006 0.96
Feature selection using rough set in intrusion detection , 1–4. 侵入検出におけるラフセットを用いた特徴選択, 1-4。 0.66
Zhang, J., Xiong, Y., Min, S., 2019. Zhang, J., Xiong, Y., Min, S., 2019 0.77
A new hybrid filter/wrapper algorithm for feature selection in classification. 分類における特徴選択のための新しいハイブリッドフィルタ/ラッパーアルゴリズム 0.78
Analytica Chimica Acta 1080, チミカ・アクタ1080の分析 0.47
Zheng, Yu-Jun, 2015. zheng, yu-jun, 2015年。 0.62
Water wave optimization: A new nature-inspired metaheuristic. 水波最適化: 新しい自然に触発されたメタヒューリスティック。 0.58
Computers and Operations Research 55, 1–11. コンピュータとオペレーションの研究 55, 1–11。 0.80
317–325. Letters 28, 459–471. 317–325. 28,459-471頁。 0.69
43–54. 16 43–54. 16 0.78
                                 ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。