論文の概要: Graph-based Extreme Feature Selection for Multi-class Classification
Tasks
- arxiv url: http://arxiv.org/abs/2303.01792v1
- Date: Fri, 3 Mar 2023 09:06:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-06 15:43:54.909929
- Title: Graph-based Extreme Feature Selection for Multi-class Classification
Tasks
- Title(参考訳): 多クラス分類タスクのためのグラフベースエクストリーム特徴選択
- Authors: Shir Friedman, Gonen Singer, Neta Rabin
- Abstract要約: 本研究は,多クラス分類タスクに適したグラフベースのフィルタ特徴選択手法に焦点をあてる。
分類作業に有用な情報をコードするオリジナルデータのスケッチを作成するために,選択した特徴の数を劇的に削減することを目的としている。
- 参考スコア(独自算出の注目度): 7.863638253070439
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When processing high-dimensional datasets, a common pre-processing step is
feature selection. Filter-based feature selection algorithms are not tailored
to a specific classification method, but rather rank the relevance of each
feature with respect to the target and the task. This work focuses on a
graph-based, filter feature selection method that is suited for multi-class
classifications tasks. We aim to drastically reduce the number of selected
features, in order to create a sketch of the original data that codes valuable
information for the classification task. The proposed graph-based algorithm is
constructed by combing the Jeffries-Matusita distance with a non-linear
dimension reduction method, diffusion maps. Feature elimination is performed
based on the distribution of the features in the low-dimensional space. Then, a
very small number of feature that have complementary separation strengths, are
selected. Moreover, the low-dimensional embedding allows to visualize the
feature space. Experimental results are provided for public datasets and
compared with known filter-based feature selection techniques.
- Abstract(参考訳): 高次元データセットを処理する場合、共通の前処理ステップは特徴選択である。
フィルタに基づく特徴選択アルゴリズムは、特定の分類法に合わせたものではなく、対象とタスクに関する各特徴の関連性をランク付けする。
本研究は,多クラス分類タスクに適したグラフベースのフィルタ特徴選択手法に焦点をあてる。
分類作業に有用な情報をコードするオリジナルデータのスケッチを作成するために,選択した特徴の数を劇的に削減することを目的としている。
提案するグラフベースアルゴリズムは,Jeffries-Matusita距離を非線形次元還元法,拡散写像と組み合わせて構成する。
特徴除去は、低次元空間における特徴の分布に基づいて行われる。
そして、相補的な分離強度を持つ非常に少数の特徴が選択される。
さらに、低次元埋め込みは特徴空間を可視化することができる。
実験結果は公開データセットに対して提供され、既知のフィルタベースの特徴選択技術と比較される。
関連論文リスト
- Feature Selection as Deep Sequential Generative Learning [50.00973409680637]
本研究では, 逐次再構成, 変分, 性能評価器の損失を伴って, 深部変分変圧器モデルを構築した。
提案モデルでは,特徴選択の知識を抽出し,連続的な埋め込み空間を学習し,特徴選択決定シーケンスをユーティリティスコアに関連付けられた埋め込みベクトルにマッピングする。
論文 参考訳(メタデータ) (2024-03-06T16:31:56Z) - Feature Selection Based on Orthogonal Constraints and Polygon Area [10.587608254638667]
特徴選択の目的は、各特徴の重要性を評価することにより、認識タスクにおける特徴の最適なサブセットを選択することである。
本稿では,特徴ラベルを拡張した依存関係間の非単調線形探索を提案する。
実験結果から,本手法は識別依存を効果的にとらえるだけでなく,次元分類性能を低下させる従来の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-02-25T08:20:05Z) - A Contrast Based Feature Selection Algorithm for High-dimensional Data
set in Machine Learning [9.596923373834093]
本稿では,異なるクラス間で示される相違点に基づいて識別的特徴を抽出する新しいフィルタ特徴選択手法であるContrastFSを提案する。
提案手法の有効性と有効性について検証し,提案手法が無視可能な計算で良好に動作することを示す。
論文 参考訳(メタデータ) (2024-01-15T05:32:35Z) - A Performance-Driven Benchmark for Feature Selection in Tabular Deep
Learning [131.2910403490434]
データサイエンティストは通常、データセットにできるだけ多くの機能を集め、既存の機能から新しい機能を設計する。
既存のタブ形式の特徴選択のためのベンチマークでは、古典的な下流モデル、おもちゃの合成データセット、あるいは下流のパフォーマンスに基づいて特徴セレクタを評価していない。
変換器を含む下流ニューラルネットワーク上で評価された課題のある特徴選択ベンチマークを構築した。
また,従来の特徴選択法よりも高い性能を有するニューラルネットワークのための,Lassoのインプット・グラディエント・ベース・アナログも提案する。
論文 参考訳(メタデータ) (2023-11-10T05:26:10Z) - Graph-Based Automatic Feature Selection for Multi-Class Classification
via Mean Simplified Silhouette [4.786337974720721]
本稿では,自動特徴選択のためのグラフベースの新しいフィルタ手法を提案する(略してGB-AFS)。
予測性能を維持するために必要な特徴の最小の組み合わせを決定する。
選択する機能の数など、ユーザ定義パラメータを一切必要としない。
論文 参考訳(メタデータ) (2023-09-05T14:37:31Z) - Parallel feature selection based on the trace ratio criterion [4.30274561163157]
本研究は,PFSTを用いた並列特徴選択という,新しい並列特徴選択手法を提案する。
提案手法は,Fisher's Discriminant Analysisで用いられるクラス分離性の尺度であるトレース基準を用いて特徴的有用性を評価する。
実験により,本手法は,比較対象の他の手法による時間的差のごく一部で,少数の特徴セットを生成できることが確認された。
論文 参考訳(メタデータ) (2022-03-03T10:50:33Z) - Compactness Score: A Fast Filter Method for Unsupervised Feature
Selection [66.84571085643928]
本稿では,CSUFS (Compactness Score) と呼ばれる高速な教師なし特徴選択手法を提案する。
提案アルゴリズムは既存のアルゴリズムよりも正確で効率的である。
論文 参考訳(メタデータ) (2022-01-31T13:01:37Z) - Multivariate feature ranking of gene expression data [62.997667081978825]
ペアワイズ相関とペアワイズ整合性に基づく2つの新しい多変量特徴ランキング手法を提案する。
提案手法は, クラスタリング変動, チ・スクエアド, 相関, 情報ゲイン, ReliefF および Significance の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-03T17:19:53Z) - Auto-weighted Multi-view Feature Selection with Graph Optimization [90.26124046530319]
グラフ学習に基づく新しい教師なしマルチビュー特徴選択モデルを提案する。
1) 特徴選択過程において, 異なる視点で共有されたコンセンサス類似度グラフが学習される。
各種データセットを用いた実験により,提案手法が最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-11T03:25:25Z) - Adaptive Graph-based Generalized Regression Model for Unsupervised
Feature Selection [11.214334712819396]
非相関的かつ識別的特徴の選択は、教師なしの機能選択の重要な問題である。
非相関制約と $ell_2,1$-norm 正規化によって課される新しい一般化回帰モデルを提案する。
それは同時に同じ近所に属するこれらのデータ ポイントの分散を減らすこと無相関および差別的な特徴を選ぶことができます。
論文 参考訳(メタデータ) (2020-12-27T09:07:26Z) - Deep Learning feature selection to unhide demographic recommender
systems factors [63.732639864601914]
行列分解モデルは意味的知識を含まない因子を生成する。
DeepUnHideは、協調フィルタリングレコメンデータシステムにおいて、ユーザとアイテムファクタから、人口統計情報を抽出することができる。
論文 参考訳(メタデータ) (2020-06-17T17:36:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。