論文の概要: Review of Swarm Intelligence-based Feature Selection Methods
- arxiv url: http://arxiv.org/abs/2008.04103v1
- Date: Fri, 7 Aug 2020 05:18:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 00:28:26.081555
- Title: Review of Swarm Intelligence-based Feature Selection Methods
- Title(参考訳): 群知能に基づく特徴選択法の検討
- Authors: Mehrdad Rostami, Kamal Berahmand, Saman Forouzandeh
- Abstract要約: 高次元データセットを持つデータマイニングアプリケーションは、高速かつ精度が要求される。
次元削減手法の1つは、データマイニングタスクの精度を高める機能選択である。
最先端のSwarmインテリジェンスについて検討し、これらのアルゴリズムに基づく最近の特徴選択手法について概説する。
- 参考スコア(独自算出の注目度): 3.8848561367220276
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: In the past decades, the rapid growth of computer and database technologies
has led to the rapid growth of large-scale datasets. On the other hand, data
mining applications with high dimensional datasets that require high speed and
accuracy are rapidly increasing. An important issue with these applications is
the curse of dimensionality, where the number of features is much higher than
the number of patterns. One of the dimensionality reduction approaches is
feature selection that can increase the accuracy of the data mining task and
reduce its computational complexity. The feature selection method aims at
selecting a subset of features with the lowest inner similarity and highest
relevancy to the target class. It reduces the dimensionality of the data by
eliminating irrelevant, redundant, or noisy data. In this paper, a comparative
analysis of different feature selection methods is presented, and a general
categorization of these methods is performed. Moreover, in this paper,
state-of-the-art swarm intelligence are studied, and the recent feature
selection methods based on these algorithms are reviewed. Furthermore, the
strengths and weaknesses of the different studied swarm intelligence-based
feature selection methods are evaluated.
- Abstract(参考訳): 過去数十年間、コンピュータとデータベース技術の急速な成長は、大規模なデータセットの急速な成長につながった。
一方で、高速で精度の高い高次元データセットを用いたデータマイニングアプリケーションも急速に増加している。
これらのアプリケーションにおける重要な問題は次元の呪いであり、そこでは特徴の数はパターンの数よりもずっと多い。
次元削減手法の1つは、データマイニングタスクの精度を高め、その計算複雑性を低減できる特徴選択である。
特徴選択法は,最も内的類似度が低く,対象クラスに最も関連性の高い特徴のサブセットを選択することを目的としている。
無関係、冗長、または騒がしいデータを排除することによって、データの寸法を減少させる。
本稿では、異なる特徴選択法の比較分析を行い、それらの方法の一般的な分類を行う。
さらに,本稿では最先端のスウォーム知能を研究し,これらのアルゴリズムに基づく最近の特徴選択手法について検討する。
さらに,研究したswarm intelligenceに基づく特徴選択手法の長所と短所について評価した。
関連論文リスト
- Large-scale Multi-objective Feature Selection: A Multi-phase Search Space Shrinking Approach [0.27624021966289597]
特徴の選択は、特に高次元データセットにおいて、機械学習において重要なステップである。
本稿では,LMSSSと呼ばれる探索空間の縮小に基づく大規模多目的進化アルゴリズムを提案する。
提案アルゴリズムの有効性は、15の大規模データセットに対する包括的実験によって実証される。
論文 参考訳(メタデータ) (2024-10-13T23:06:10Z) - A Survey on Data Selection for Language Models [148.300726396877]
データ選択方法は、トレーニングデータセットに含まれるデータポイントを決定することを目的としている。
ディープラーニングは、主に実証的な証拠によって駆動され、大規模なデータに対する実験は高価である。
広範なデータ選択研究のリソースを持つ組織はほとんどない。
論文 参考訳(メタデータ) (2024-02-26T18:54:35Z) - LESS: Selecting Influential Data for Targeted Instruction Tuning [64.78894228923619]
本稿では,データの影響を推定し,命令データ選択のための低ランクグレーディエント類似度探索を行うアルゴリズムであるLESSを提案する。
LESS選択したデータの5%のトレーニングは、さまざまなダウンストリームタスクにわたる完全なデータセットでのトレーニングよりも優れています。
我々の方法は、意図した下流アプリケーションに必要な推論スキルを識別するために、表面的なフォームキューを超えています。
論文 参考訳(メタデータ) (2024-02-06T19:18:04Z) - A Contrast Based Feature Selection Algorithm for High-dimensional Data
set in Machine Learning [9.596923373834093]
本稿では,異なるクラス間で示される相違点に基づいて識別的特徴を抽出する新しいフィルタ特徴選択手法であるContrastFSを提案する。
提案手法の有効性と有効性について検証し,提案手法が無視可能な計算で良好に動作することを示す。
論文 参考訳(メタデータ) (2024-01-15T05:32:35Z) - A Performance-Driven Benchmark for Feature Selection in Tabular Deep
Learning [131.2910403490434]
データサイエンティストは通常、データセットにできるだけ多くの機能を集め、既存の機能から新しい機能を設計する。
既存のタブ形式の特徴選択のためのベンチマークでは、古典的な下流モデル、おもちゃの合成データセット、あるいは下流のパフォーマンスに基づいて特徴セレクタを評価していない。
変換器を含む下流ニューラルネットワーク上で評価された課題のある特徴選択ベンチマークを構築した。
また,従来の特徴選択法よりも高い性能を有するニューラルネットワークのための,Lassoのインプット・グラディエント・ベース・アナログも提案する。
論文 参考訳(メタデータ) (2023-11-10T05:26:10Z) - Causal Feature Selection via Transfer Entropy [59.999594949050596]
因果発見は、観察データによる特徴間の因果関係を特定することを目的としている。
本稿では,前向きと後向きの機能選択に依存する新たな因果的特徴選択手法を提案する。
精度および有限サンプルの場合の回帰誤差と分類誤差について理論的に保証する。
論文 参考訳(メタデータ) (2023-10-17T08:04:45Z) - Feature selection algorithm based on incremental mutual information and
cockroach swarm optimization [12.297966427336124]
インクリメンタルな相互情報に基づく改良型Swarm知的最適化法(IMIICSO)を提案する。
この方法は、グループアルゴリズムのグローバル検索をガイドするために、決定テーブルの削減知識を抽出する。
改良されたゴキブリ群最適化アルゴリズムによって選択された特徴部分集合の精度は、インクリメンタルな相互情報に基づいて、元のスワム知能最適化アルゴリズムと同等か、ほぼ同程度である。
論文 参考訳(メタデータ) (2023-02-21T08:51:05Z) - Compactness Score: A Fast Filter Method for Unsupervised Feature
Selection [66.84571085643928]
本稿では,CSUFS (Compactness Score) と呼ばれる高速な教師なし特徴選択手法を提案する。
提案アルゴリズムは既存のアルゴリズムよりも正確で効率的である。
論文 参考訳(メタデータ) (2022-01-31T13:01:37Z) - Selecting the suitable resampling strategy for imbalanced data
classification regarding dataset properties [62.997667081978825]
医学、情報検索、サイバーセキュリティ、ソーシャルメディアなどの多くのアプリケーションドメインでは、分類モデルの導入に使用されるデータセットは、各クラスのインスタンスの不平等な分布を持つことが多い。
この状況は不均衡データ分類と呼ばれ、少数民族の例では予測性能が低い。
オーバーサンプリングとアンダーサンプリングの技術は、各クラスの例の数とバランスをとることでこの問題に対処する、よく知られた戦略である。
論文 参考訳(メタデータ) (2021-12-15T18:56:39Z) - Quick and Robust Feature Selection: the Strength of Energy-efficient
Sparse Training for Autoencoders [4.561081324313315]
データセットの最も重要な属性を識別する機能選択は、この問題の解決策として導入されている。
既存の特徴選択法のほとんどは、計算的に非効率である。
本稿では,教師なし特徴選択のための新しいフレキシブルな手法を提案する。
論文 参考訳(メタデータ) (2020-12-01T15:05:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。