論文の概要: A Supervised Feature Selection Method For Mixed-Type Data using
Density-based Feature Clustering
- arxiv url: http://arxiv.org/abs/2111.08169v1
- Date: Wed, 10 Nov 2021 15:05:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-21 14:56:15.320130
- Title: A Supervised Feature Selection Method For Mixed-Type Data using
Density-based Feature Clustering
- Title(参考訳): 密度に基づく特徴クラスタリングを用いた混合型データの特徴選択法
- Authors: Xuyang Yan, Mrinmoy Sarkar, Biniam Gebru, Shabnam Nazmi, and Abdollah
Homaifar
- Abstract要約: 本稿では、密度ベース特徴クラスタリング(SFSDFC)を用いた教師付き特徴選択法を提案する。
SFSDFCは、新しい密度に基づくクラスタリング法を用いて、特徴空間を不連続な特徴クラスタの集合に分解する。
そして、これらの特徴クラスタから最小限の冗長性を持つ重要な特徴のサブセットを得るために、効果的な特徴選択戦略を採用する。
- 参考スコア(独自算出の注目度): 1.3048920509133808
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Feature selection methods are widely used to address the high computational
overheads and curse of dimensionality in classifying high-dimensional data.
Most conventional feature selection methods focus on handling homogeneous
features, while real-world datasets usually have a mixture of continuous and
discrete features. Some recent mixed-type feature selection studies only select
features with high relevance to class labels and ignore the redundancy among
features. The determination of an appropriate feature subset is also a
challenge. In this paper, a supervised feature selection method using
density-based feature clustering (SFSDFC) is proposed to obtain an appropriate
final feature subset for mixed-type data. SFSDFC decomposes the feature space
into a set of disjoint feature clusters using a novel density-based clustering
method. Then, an effective feature selection strategy is employed to obtain a
subset of important features with minimal redundancy from those feature
clusters. Extensive experiments as well as comparison studies with five
state-of-the-art methods are conducted on SFSDFC using thirteen real-world
benchmark datasets and results justify the efficacy of the SFSDFC method.
- Abstract(参考訳): 特徴選択法は高次元データの分類における高い計算オーバーヘッドと次元性の呪いに広く用いられている。
従来の特徴選択法は均質な特徴を扱うことにフォーカスしているが、現実世界のデータセットは通常、連続的特徴と離散的特徴の混合を持つ。
最近の混合型特徴選択研究では、クラスラベルに関連性の高い特徴のみを選択し、特徴間の冗長性を無視している。
適切な機能サブセットの決定もまた課題である。
本稿では, 密度ベース特徴クラスタリング(SFSDFC)を用いた教師付き特徴選択手法を提案し, 混合型データに対して適切な最終特徴サブセットを求める。
SFSDFCは、新しい密度に基づくクラスタリング法を用いて、特徴空間を不連続な特徴クラスタの集合に分解する。
そして、これらの特徴クラスタから最小限の冗長性を持つ重要な特徴のサブセットを得るために、効果的な特徴選択戦略を採用する。
13個の実世界のベンチマークデータセットを用いてSFSDFCで5つの最先端手法との比較実験を行い,SFSDFC法の有効性を正当化した。
関連論文リスト
- Collaborative Feature-Logits Contrastive Learning for Open-Set Semi-Supervised Object Detection [75.02249869573994]
オープンセットのシナリオでは、ラベルなしデータセットには、イン・ディストリビューション(ID)クラスとアウト・オブ・ディストリビューション(OOD)クラスの両方が含まれている。
このような設定で半教師付き検出器を適用すると、OODクラスをIDクラスとして誤分類する可能性がある。
我々は、CFL-Detector(Collaborative Feature-Logits Detector)と呼ばれるシンプルで効果的な方法を提案する。
論文 参考訳(メタデータ) (2024-11-20T02:57:35Z) - Feature Selection as Deep Sequential Generative Learning [50.00973409680637]
本研究では, 逐次再構成, 変分, 性能評価器の損失を伴って, 深部変分変圧器モデルを構築した。
提案モデルでは,特徴選択の知識を抽出し,連続的な埋め込み空間を学習し,特徴選択決定シーケンスをユーティリティスコアに関連付けられた埋め込みベクトルにマッピングする。
論文 参考訳(メタデータ) (2024-03-06T16:31:56Z) - Graph-based Extreme Feature Selection for Multi-class Classification
Tasks [7.863638253070439]
本研究は,多クラス分類タスクに適したグラフベースのフィルタ特徴選択手法に焦点をあてる。
分類作業に有用な情報をコードするオリジナルデータのスケッチを作成するために,選択した特徴の数を劇的に削減することを目的としている。
論文 参考訳(メタデータ) (2023-03-03T09:06:35Z) - ManiFeSt: Manifold-based Feature Selection for Small Data Sets [9.649457851261909]
少数サンプル教師付き特徴選択(FS)のための新しい手法を提案する。
提案手法はまず,多機能アソシエーションをキャプチャするカーネルを用いて,各クラスの特徴空間の多様体を学習する。
テストデータに適用した場合,FSにより分類が向上し,一般化が向上することを示す。
論文 参考訳(メタデータ) (2022-07-18T12:58:01Z) - Parallel feature selection based on the trace ratio criterion [4.30274561163157]
本研究は,PFSTを用いた並列特徴選択という,新しい並列特徴選択手法を提案する。
提案手法は,Fisher's Discriminant Analysisで用いられるクラス分離性の尺度であるトレース基準を用いて特徴的有用性を評価する。
実験により,本手法は,比較対象の他の手法による時間的差のごく一部で,少数の特徴セットを生成できることが確認された。
論文 参考訳(メタデータ) (2022-03-03T10:50:33Z) - Compactness Score: A Fast Filter Method for Unsupervised Feature
Selection [66.84571085643928]
本稿では,CSUFS (Compactness Score) と呼ばれる高速な教師なし特徴選択手法を提案する。
提案アルゴリズムは既存のアルゴリズムよりも正確で効率的である。
論文 参考訳(メタデータ) (2022-01-31T13:01:37Z) - Automated Supervised Feature Selection for Differentiated Patterns of
Care [5.3825788156200565]
パイプラインには、上位K機能を選択するためのフィルタ、ラッパー、埋め込みの3つのタイプの機能選択テクニックが含まれていた。
選択された特徴は, 既存の多次元サブセットスキャン(MDSS)において, 最も異常なサブセット, ほとんど異常なサブセット, 確率スコア, 測定結果が記録された。
論文 参考訳(メタデータ) (2021-11-05T13:27:18Z) - Multivariate feature ranking of gene expression data [62.997667081978825]
ペアワイズ相関とペアワイズ整合性に基づく2つの新しい多変量特徴ランキング手法を提案する。
提案手法は, クラスタリング変動, チ・スクエアド, 相関, 情報ゲイン, ReliefF および Significance の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-03T17:19:53Z) - Channel DropBlock: An Improved Regularization Method for Fine-Grained
Visual Classification [58.07257910065007]
既存のアプローチは主に、識別的部分を見つけるための注意機構や、高度にパラメータ化された特徴を弱教師付きで抽出する特徴符号化アプローチを導入することでこの問題に対処している。
本研究では,CDB(Channel DropBlock)と呼ばれる軽量で効果的な正規化手法を提案する。
論文 参考訳(メタデータ) (2021-06-07T09:03:02Z) - Enhanced Classification Accuracy for Cardiotocogram Data with Ensemble
Feature Selection and Classifier Ensemble [0.0]
提案手法は2つのフェーズから構成される: (i) アンサンブルに基づく特徴選択手法を適用して支持ベクトルとなる可能性のある特徴集合を選択する; (ii) 選択した特徴を用いたSVMアンサンブルを構築する。
特徴選択手法は, (i)相関ベース, (ii)一貫性ベース, (iii)ReliefF, (iv)情報ゲインの4種類であった。
論文 参考訳(メタデータ) (2020-10-27T05:11:24Z) - New advances in enumerative biclustering algorithms with online
partitioning [80.22629846165306]
さらに、数値データセットの列に定数値を持つ最大二クラスタの効率的で完全で正しい非冗長列挙を実現できる二クラスタリングアルゴリズムであるRIn-Close_CVCを拡張した。
改良されたアルゴリズムはRIn-Close_CVC3と呼ばれ、RIn-Close_CVCの魅力的な特性を保ちます。
論文 参考訳(メタデータ) (2020-03-07T14:54:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。