論文の概要: Feature selection algorithm based on incremental mutual information and
cockroach swarm optimization
- arxiv url: http://arxiv.org/abs/2302.10522v1
- Date: Tue, 21 Feb 2023 08:51:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-22 15:46:51.461514
- Title: Feature selection algorithm based on incremental mutual information and
cockroach swarm optimization
- Title(参考訳): 漸進的相互情報とゴキブリ群最適化に基づく特徴選択アルゴリズム
- Authors: Zhao and Chen
- Abstract要約: インクリメンタルな相互情報に基づく改良型Swarm知的最適化法(IMIICSO)を提案する。
この方法は、グループアルゴリズムのグローバル検索をガイドするために、決定テーブルの削減知識を抽出する。
改良されたゴキブリ群最適化アルゴリズムによって選択された特徴部分集合の精度は、インクリメンタルな相互情報に基づいて、元のスワム知能最適化アルゴリズムと同等か、ほぼ同程度である。
- 参考スコア(独自算出の注目度): 12.297966427336124
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Feature selection is an effective preprocessing technique to reduce data
dimension. For feature selection, rough set theory provides many measures,
among which mutual information is one of the most important attribute measures.
However, mutual information based importance measures are computationally
expensive and inaccurate, especially in hypersample instances, and it is
undoubtedly a NP-hard problem in high-dimensional hyperhigh-dimensional data
sets. Although many representative group intelligent algorithm feature
selection strategies have been proposed so far to improve the accuracy, there
is still a bottleneck when using these feature selection algorithms to process
high-dimensional large-scale data sets, which consumes a lot of performance and
is easy to select weakly correlated and redundant features. In this study, we
propose an incremental mutual information based improved swarm intelligent
optimization method (IMIICSO), which uses rough set theory to calculate the
importance of feature selection based on mutual information. This method
extracts decision table reduction knowledge to guide group algorithm global
search. By exploring the computation of mutual information of supersamples, we
can not only discard the useless features to speed up the internal and external
computation, but also effectively reduce the cardinality of the optimal feature
subset by using IMIICSO method, so that the cardinality is minimized by
comparison. The accuracy of feature subsets selected by the improved cockroach
swarm algorithm based on incremental mutual information is better or almost the
same as that of the original swarm intelligent optimization algorithm.
Experiments using 10 datasets derived from UCI, including large scale and high
dimensional datasets, confirmed the efficiency and effectiveness of the
proposed algorithm.
- Abstract(参考訳): 特徴選択はデータ次元を減らす効果的な前処理技術である。
特徴選択のために、ラフ集合論は、相互情報が最も重要な属性測度の1つである多くの測度を提供する。
しかし、相互情報に基づく重要度尺度は計算コストが高く、特にハイパーサンプルの場合不正確であり、高次元超高次元データセットにおけるNPハード問題であることは確かである。
多くの代表的なグループ知的アルゴリズム特徴選択戦略が提案されているが、高次元の大規模データセットを処理するためにこれらの特徴選択アルゴリズムを使用する場合、依然としてボトルネックがあり、多くの性能を消費し、弱い相関と冗長な特徴の選択が容易である。
本研究では、粗設定理論を用いて、相互情報に基づく特徴選択の重要性を計算し、インクリメンタルな相互情報に基づく改良された群知能最適化法(IMIICSO)を提案する。
本手法は,グループアルゴリズムのグローバル検索のための決定表削減知識を抽出する。
スーパーサンプルの相互情報の計算を探索することにより、内部および外部の計算を高速化するために無駄な特徴を捨てるだけでなく、IMIICSO法を用いて最適な特徴部分集合の濃度を効果的に低減し、比較によって濃度を最小化する。
改良されたcockroach swarmアルゴリズムによって選択された機能サブセットの精度は、インクリメンタルな相互情報に基づいて、元のswarmintelligent optimizationアルゴリズムよりも、あるいはほぼ同じである。
大規模および高次元データセットを含むuci由来の10個のデータセットを用いた実験により,提案アルゴリズムの有効性と有効性を確認した。
関連論文リスト
- Discovering Preference Optimization Algorithms with and for Large Language Models [50.843710797024805]
オフライン優先最適化は、LLM(Large Language Model)出力の品質を向上・制御するための重要な手法である。
我々は、人間の介入なしに、新しい最先端の選好最適化アルゴリズムを自動で発見する客観的発見を行う。
実験は、ロジスティックと指数的損失を適応的にブレンドする新しいアルゴリズムであるDiscoPOPの最先端性能を示す。
論文 参考訳(メタデータ) (2024-06-12T16:58:41Z) - Compact NSGA-II for Multi-objective Feature Selection [0.24578723416255746]
特徴選択を,分類精度を最大化し,選択した特徴数の最小化を目的とした多目的バイナリ最適化タスクとして定義する。
最適な特徴を選択するために,2進圧縮型NSGA-II (CNSGA-II) アルゴリズムを提案する。
我々の知る限りでは、これは特徴選択のために提案された最初のコンパクトな多目的アルゴリズムである。
論文 参考訳(メタデータ) (2024-02-20T01:10:12Z) - Multi-objective Binary Coordinate Search for Feature Selection [0.24578723416255746]
大規模特徴選択問題の解法として,二元多目的座標探索(MOCS)アルゴリズムを提案する。
その結果,実世界の5つの大規模データセットにおいて,NSGA-IIよりも提案手法が優れていることが示唆された。
論文 参考訳(メタデータ) (2024-02-20T00:50:26Z) - A Weighted K-Center Algorithm for Data Subset Selection [70.49696246526199]
サブセット選択は、トレーニングデータの小さな部分を特定する上で重要な役割を果たす、基本的な問題である。
我々は,k中心および不確かさサンプリング目的関数の重み付け和に基づいて,サブセットを計算する新しい係数3近似アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-12-17T04:41:07Z) - Improved Distribution Matching for Dataset Condensation [91.55972945798531]
本稿では,分布マッチングに基づく新しいデータセット凝縮法を提案する。
提案手法は,計算資源の少ない従来の最適化指向手法よりも優れている。
論文 参考訳(メタデータ) (2023-07-19T04:07:33Z) - Compactness Score: A Fast Filter Method for Unsupervised Feature
Selection [66.84571085643928]
本稿では,CSUFS (Compactness Score) と呼ばれる高速な教師なし特徴選択手法を提案する。
提案アルゴリズムは既存のアルゴリズムよりも正確で効率的である。
論文 参考訳(メタデータ) (2022-01-31T13:01:37Z) - Low Budget Active Learning via Wasserstein Distance: An Integer
Programming Approach [81.19737119343438]
アクティブラーニング(Active Learning)とは、ラベル付きデータプールのコアサブセットをラベルに選択することで、ラベル付きデータでモデルをトレーニングするプロセスである。
本稿では,未ラベルプールからワッサーシュタイン距離を最小化するコアセットを選択するための新しい整数最適化問題を提案する。
我々の戦略は、ラベルのないプールで教師なし学習によって得られる高品質な潜伏的特徴を必要とする。
論文 参考訳(メタデータ) (2021-06-05T21:25:03Z) - Sparse PCA via $l_{2,p}$-Norm Regularization for Unsupervised Feature
Selection [138.97647716793333]
再構成誤差を$l_2,p$ノルム正規化と組み合わせることで,単純かつ効率的な特徴選択手法を提案する。
提案する非教師付きモデルを解くための効率的な最適化アルゴリズムを提案し,アルゴリズムの収束と計算の複雑さを理論的に解析する。
論文 参考訳(メタデータ) (2020-12-29T04:08:38Z) - Quick and Robust Feature Selection: the Strength of Energy-efficient
Sparse Training for Autoencoders [4.561081324313315]
データセットの最も重要な属性を識別する機能選択は、この問題の解決策として導入されている。
既存の特徴選択法のほとんどは、計算的に非効率である。
本稿では,教師なし特徴選択のための新しいフレキシブルな手法を提案する。
論文 参考訳(メタデータ) (2020-12-01T15:05:15Z) - Review of Swarm Intelligence-based Feature Selection Methods [3.8848561367220276]
高次元データセットを持つデータマイニングアプリケーションは、高速かつ精度が要求される。
次元削減手法の1つは、データマイニングタスクの精度を高める機能選択である。
最先端のSwarmインテリジェンスについて検討し、これらのアルゴリズムに基づく最近の特徴選択手法について概説する。
論文 参考訳(メタデータ) (2020-08-07T05:18:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。