論文の概要: A Self-adaptive Weighted Differential Evolution Approach for Large-scale
Feature Selection
- arxiv url: http://arxiv.org/abs/2110.14166v1
- Date: Wed, 27 Oct 2021 04:46:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-10 03:34:39.037226
- Title: A Self-adaptive Weighted Differential Evolution Approach for Large-scale
Feature Selection
- Title(参考訳): 大規模特徴選択のための自己適応型重み付き微分進化アプローチ
- Authors: Xubin Wang, Yunhe Wang, Ka-Chun Wong, Xiangtao Li
- Abstract要約: 自己適応機構に基づく新しい重み付き微分進化アルゴリズムSaWDEを提案する。
本稿では,12の大規模データセットに対するアルゴリズムの有効性を示す。
- 参考スコア(独自算出の注目度): 23.33085252518155
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, many evolutionary computation methods have been developed to solve
the feature selection problem. However, the studies focused mainly on
small-scale issues, resulting in stagnation issues in local optima and
numerical instability when dealing with large-scale feature selection dilemmas.
To address these challenges, this paper proposes a novel weighted differential
evolution algorithm based on self-adaptive mechanism, named SaWDE, to solve
large-scale feature selection. First, a multi-population mechanism is adopted
to enhance the diversity of the population. Then, we propose a new
self-adaptive mechanism that selects several strategies from a strategy pool to
capture the diverse characteristics of the datasets from the historical
information. Finally, a weighted model is designed to identify the important
features, which enables our model to generate the most suitable
feature-selection solution. We demonstrate the effectiveness of our algorithm
on twelve large-scale datasets. The performance of SaWDE is superior compared
to six non-EC algorithms and six other EC algorithms, on both training and test
datasets and on subset size, indicating that our algorithm is a favorable tool
to solve the large-scale feature selection problem. Moreover, we have
experimented SaWDE with six EC algorithms on twelve higher-dimensional data,
which demonstrates that SaWDE is more robust and efficient compared to those
state-of-the-art methods. SaWDE source code is available on Github at
https://github.com/wangxb96/SaWDE.
- Abstract(参考訳): 近年,特徴選択問題を解決するための進化的計算手法が数多く開発されている。
しかし、研究は主に小規模問題に焦点をあて、大規模特徴選択ジレンマを扱う際に局所視差や数値不安定性が停滞する結果となった。
これらの課題に対処するために,大規模特徴選択を解くための自己適応機構であるSaWDEに基づく新しい重み付き微分進化アルゴリズムを提案する。
まず、人口の多様性を高めるために、多集団機構を採用する。
次に,戦略プールから複数の戦略を選択し,履歴情報からデータセットの多様な特徴を捉える新しい自己適応機構を提案する。
最後に、重み付きモデルは重要な特徴を特定するように設計されており、それによって、最も適切な特徴選択ソリューションを生成することができる。
本稿では,12の大規模データセットに対するアルゴリズムの有効性を示す。
SaWDEの性能は、トレーニングとテストの両方のデータセットとサブセットサイズにおいて、6つの非ECアルゴリズムと6つのECアルゴリズムよりも優れており、我々のアルゴリズムは大規模な特徴選択問題を解決するのに好適なツールであることを示している。
さらに,12個の高次元データに対して6つのECアルゴリズムを用いてSaWDEを実験した結果,SaWDEは最先端の手法に比べてより堅牢で効率的であることが示された。
SaWDEのソースコードはGithubでhttps://github.com/wangxb96/SaWDEで公開されている。
関連論文リスト
- Large-scale Multi-objective Feature Selection: A Multi-phase Search Space Shrinking Approach [0.27624021966289597]
特徴の選択は、特に高次元データセットにおいて、機械学習において重要なステップである。
本稿では,LMSSSと呼ばれる探索空間の縮小に基づく大規模多目的進化アルゴリズムを提案する。
提案アルゴリズムの有効性は、15の大規模データセットに対する包括的実験によって実証される。
論文 参考訳(メタデータ) (2024-10-13T23:06:10Z) - Multi-objective Binary Coordinate Search for Feature Selection [0.24578723416255746]
大規模特徴選択問題の解法として,二元多目的座標探索(MOCS)アルゴリズムを提案する。
その結果,実世界の5つの大規模データセットにおいて,NSGA-IIよりも提案手法が優れていることが示唆された。
論文 参考訳(メタデータ) (2024-02-20T00:50:26Z) - A Weighted K-Center Algorithm for Data Subset Selection [70.49696246526199]
サブセット選択は、トレーニングデータの小さな部分を特定する上で重要な役割を果たす、基本的な問題である。
我々は,k中心および不確かさサンプリング目的関数の重み付け和に基づいて,サブセットを計算する新しい係数3近似アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-12-17T04:41:07Z) - Feature selection algorithm based on incremental mutual information and
cockroach swarm optimization [12.297966427336124]
インクリメンタルな相互情報に基づく改良型Swarm知的最適化法(IMIICSO)を提案する。
この方法は、グループアルゴリズムのグローバル検索をガイドするために、決定テーブルの削減知識を抽出する。
改良されたゴキブリ群最適化アルゴリズムによって選択された特徴部分集合の精度は、インクリメンタルな相互情報に基づいて、元のスワム知能最適化アルゴリズムと同等か、ほぼ同程度である。
論文 参考訳(メタデータ) (2023-02-21T08:51:05Z) - Compactness Score: A Fast Filter Method for Unsupervised Feature
Selection [66.84571085643928]
本稿では,CSUFS (Compactness Score) と呼ばれる高速な教師なし特徴選択手法を提案する。
提案アルゴリズムは既存のアルゴリズムよりも正確で効率的である。
論文 参考訳(メタデータ) (2022-01-31T13:01:37Z) - Optimal Data Selection: An Online Distributed View [61.31708750038692]
この問題のオンライン版と分散版のアルゴリズムを開発する。
ランダム選択法は, ランダム選択法よりも5~20%高い性能を示した。
ImageNet と MNIST の学習タスクにおいて、我々の選択方法はランダム選択よりも5-20% 高い性能を示した。
論文 参考訳(メタデータ) (2022-01-25T18:56:16Z) - Feature Selection Using Reinforcement Learning [0.0]
特定の関心の予測因子を特徴付けるために使用できる変数や特徴の空間は指数関数的に増大し続けている。
モデルのバイアスを損なうことなく分散を最小化する最も特徴的な特徴を特定することは、マシンラーニングモデルのトレーニングを成功させる上で非常に重要です。
論文 参考訳(メタデータ) (2021-01-23T09:24:37Z) - Robust Multi-class Feature Selection via $l_{2,0}$-Norm Regularization
Minimization [6.41804410246642]
特徴選択は、データマイニングと機械学習において重要な計算処理である。
本稿では,複数クラスの特徴選択における最小二乗問題の解法として,ホモシーハードしきい値(HIHT)に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2020-10-08T02:06:06Z) - AdaLead: A simple and robust adaptive greedy search algorithm for
sequence design [55.41644538483948]
我々は、容易で、拡張性があり、堅牢な進化的欲求アルゴリズム(AdaLead)を開発した。
AdaLeadは、様々な生物学的に動機づけられたシーケンスデザインの課題において、アートアプローチのより複雑な状態を克服する、驚くほど強力なベンチマークである。
論文 参考訳(メタデータ) (2020-10-05T16:40:38Z) - Discovering Representations for Black-box Optimization [73.59962178534361]
ブラックボックス最適化符号化は手作業で行うのではなく,自動的に学習可能であることを示す。
学習された表現は、標準的なMAP-Elitesよりも桁違いに少ない評価で高次元の問題を解くことができることを示す。
論文 参考訳(メタデータ) (2020-03-09T20:06:20Z) - Stepwise Model Selection for Sequence Prediction via Deep Kernel
Learning [100.83444258562263]
本稿では,モデル選択の課題を解決するために,新しいベイズ最適化(BO)アルゴリズムを提案する。
結果として得られる複数のブラックボックス関数の最適化問題を協調的かつ効率的に解くために,ブラックボックス関数間の潜在的な相関を利用する。
我々は、シーケンス予測のための段階的モデル選択(SMS)の問題を初めて定式化し、この目的のために効率的な共同学習アルゴリズムを設計し、実証する。
論文 参考訳(メタデータ) (2020-01-12T09:42:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。