論文の概要: SFE: A Simple, Fast and Efficient Feature Selection Algorithm for
High-Dimensional Data
- arxiv url: http://arxiv.org/abs/2303.10182v1
- Date: Fri, 17 Mar 2023 12:28:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-21 20:50:05.545480
- Title: SFE: A Simple, Fast and Efficient Feature Selection Algorithm for
High-Dimensional Data
- Title(参考訳): SFE:高次元データのための簡易かつ高速かつ効率的な特徴選択アルゴリズム
- Authors: Behrouz Ahadzadeh, Moloud Abdar, Fatemeh Safara, Abbas Khosravi,
Mohammad Bagher Menhaj, Ponnuthurai Nagaratnam Suganthan
- Abstract要約: SFEアルゴリズムは探索エージェントと2つの演算子(非選択と選択)を用いて探索処理を行う。
特徴選択のためのSFEとSFE-PSOの有効性を40個の高次元データセットで比較した。
- 参考スコア(独自算出の注目度): 8.190527783858096
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, a new feature selection algorithm, called SFE (Simple, Fast,
and Efficient), is proposed for high-dimensional datasets. The SFE algorithm
performs its search process using a search agent and two operators:
non-selection and selection. It comprises two phases: exploration and
exploitation. In the exploration phase, the non-selection operator performs a
global search in the entire problem search space for the irrelevant, redundant,
trivial, and noisy features, and changes the status of the features from
selected mode to non-selected mode. In the exploitation phase, the selection
operator searches the problem search space for the features with a high impact
on the classification results, and changes the status of the features from
non-selected mode to selected mode. The proposed SFE is successful in feature
selection from high-dimensional datasets. However, after reducing the
dimensionality of a dataset, its performance cannot be increased significantly.
In these situations, an evolutionary computational method could be used to find
a more efficient subset of features in the new and reduced search space. To
overcome this issue, this paper proposes a hybrid algorithm, SFE-PSO (particle
swarm optimization) to find an optimal feature subset. The efficiency and
effectiveness of the SFE and the SFE-PSO for feature selection are compared on
40 high-dimensional datasets. Their performances were compared with six
recently proposed feature selection algorithms. The results obtained indicate
that the two proposed algorithms significantly outperform the other algorithms,
and can be used as efficient and effective algorithms in selecting features
from high-dimensional datasets.
- Abstract(参考訳): 本稿では,高次元データセットに対してsfe(simple, fast, efficient)と呼ばれる新しい特徴選択アルゴリズムを提案する。
SFEアルゴリズムは探索エージェントと2つの演算子(非選択と選択)を用いて探索処理を行う。
探索と搾取という2つの段階からなる。
探索段階において、非選択演算子は、無関係、冗長、自明、騒々しい特徴について問題探索空間全体において大域的な探索を行い、選択モードから非選択モードへ特徴の状況を変更する。
活用段階において、選択演算子は、分類結果に大きな影響を与える特徴の課題探索空間を探索し、非選択モードから選択モードへ特徴の状況を変更する。
提案したSFEは高次元データセットの特徴選択に成功している。
しかし,データセットの次元性を低下させると,その性能は著しく向上することができない。
このような状況下では、新しい検索空間と縮小された検索空間において、より効率的な特徴のサブセットを見つけるために進化的計算法が用いられる。
そこで本研究では,SFE-PSO (Particle Swarm Optimization) というハイブリッドアルゴリズムを提案する。
特徴選択のためのSFEとSFE-PSOの有効性を40個の高次元データセットで比較した。
その性能は、最近提案された6つの機能選択アルゴリズムと比較された。
その結果,提案された2つのアルゴリズムは他のアルゴリズムを大幅に上回っており,高次元データセットから特徴を選択できる効率的かつ効果的なアルゴリズムとして使用できることがわかった。
関連論文リスト
- Feature Selection as Deep Sequential Generative Learning [50.00973409680637]
本研究では, 逐次再構成, 変分, 性能評価器の損失を伴って, 深部変分変圧器モデルを構築した。
提案モデルでは,特徴選択の知識を抽出し,連続的な埋め込み空間を学習し,特徴選択決定シーケンスをユーティリティスコアに関連付けられた埋め込みベクトルにマッピングする。
論文 参考訳(メタデータ) (2024-03-06T16:31:56Z) - Compact NSGA-II for Multi-objective Feature Selection [0.24578723416255746]
特徴選択を,分類精度を最大化し,選択した特徴数の最小化を目的とした多目的バイナリ最適化タスクとして定義する。
最適な特徴を選択するために,2進圧縮型NSGA-II (CNSGA-II) アルゴリズムを提案する。
我々の知る限りでは、これは特徴選択のために提案された最初のコンパクトな多目的アルゴリズムである。
論文 参考訳(メタデータ) (2024-02-20T01:10:12Z) - Multi-objective Binary Coordinate Search for Feature Selection [0.24578723416255746]
大規模特徴選択問題の解法として,二元多目的座標探索(MOCS)アルゴリズムを提案する。
その結果,実世界の5つの大規模データセットにおいて,NSGA-IIよりも提案手法が優れていることが示唆された。
論文 参考訳(メタデータ) (2024-02-20T00:50:26Z) - Feature selection algorithm based on incremental mutual information and
cockroach swarm optimization [12.297966427336124]
インクリメンタルな相互情報に基づく改良型Swarm知的最適化法(IMIICSO)を提案する。
この方法は、グループアルゴリズムのグローバル検索をガイドするために、決定テーブルの削減知識を抽出する。
改良されたゴキブリ群最適化アルゴリズムによって選択された特徴部分集合の精度は、インクリメンタルな相互情報に基づいて、元のスワム知能最適化アルゴリズムと同等か、ほぼ同程度である。
論文 参考訳(メタデータ) (2023-02-21T08:51:05Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Efficient Non-Parametric Optimizer Search for Diverse Tasks [93.64739408827604]
興味のあるタスクを直接検索できる,スケーラブルで汎用的なフレームワークを初めて提示する。
基礎となる数学表現の自然木構造に着想を得て、空間を超木に再配置する。
我々は,モンテカルロ法を木探索に適用し,レジェクションサンプリングと等価形状検出を備える。
論文 参考訳(メタデータ) (2022-09-27T17:51:31Z) - A Tent L\'evy Flying Sparrow Search Algorithm for Feature Selection: A
COVID-19 Case Study [1.6436293069942312]
情報科学の急速な発展によって引き起こされる「次元のカルス」は、大きなデータセットを扱う際に悪影響を及ぼす可能性がある。
本研究では,スナロー探索アルゴリズム(SSA)の変種であるTent L'evy Flying Sparrow Searchアルゴリズム(TFSSA)を提案する。
TFSSAは、分類のためにパッキングパターンにおける機能の最も優れたサブセットを選択するために使用される。
論文 参考訳(メタデータ) (2022-09-20T15:12:10Z) - Compactness Score: A Fast Filter Method for Unsupervised Feature
Selection [66.84571085643928]
本稿では,CSUFS (Compactness Score) と呼ばれる高速な教師なし特徴選択手法を提案する。
提案アルゴリズムは既存のアルゴリズムよりも正確で効率的である。
論文 参考訳(メタデータ) (2022-01-31T13:01:37Z) - Feature Robust Optimal Transport for High-dimensional Data [125.04654605998618]
本研究では,高次元データに対する特徴量ロバスト最適輸送(FROT)を提案する。
実世界の意味対応データセットにおいて,FROTアルゴリズムが最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2020-05-25T14:07:16Z) - Extreme Algorithm Selection With Dyadic Feature Representation [78.13985819417974]
我々は,数千の候補アルゴリズムの固定セットを考慮に入れた,極端なアルゴリズム選択(XAS)の設定を提案する。
我々は、XAS設定に対する最先端のAS技術の適用性を評価し、Dyadic特徴表現を利用したアプローチを提案する。
論文 参考訳(メタデータ) (2020-01-29T09:40:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。