論文の概要: Graph-Based Automatic Feature Selection for Multi-Class Classification
via Mean Simplified Silhouette
- arxiv url: http://arxiv.org/abs/2309.02272v1
- Date: Tue, 5 Sep 2023 14:37:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 14:24:27.744042
- Title: Graph-Based Automatic Feature Selection for Multi-Class Classification
via Mean Simplified Silhouette
- Title(参考訳): 簡易シルエットを用いた複数クラス分類のためのグラフベース自動特徴選択
- Authors: David Levin, Gonen Singer
- Abstract要約: 本稿では,自動特徴選択のためのグラフベースの新しいフィルタ手法を提案する(略してGB-AFS)。
予測性能を維持するために必要な特徴の最小の組み合わせを決定する。
選択する機能の数など、ユーザ定義パラメータを一切必要としない。
- 参考スコア(独自算出の注目度): 4.786337974720721
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces a novel graph-based filter method for automatic feature
selection (abbreviated as GB-AFS) for multi-class classification tasks. The
method determines the minimum combination of features required to sustain
prediction performance while maintaining complementary discriminating abilities
between different classes. It does not require any user-defined parameters such
as the number of features to select. The methodology employs the
Jeffries-Matusita (JM) distance in conjunction with t-distributed Stochastic
Neighbor Embedding (t-SNE) to generate a low-dimensional space reflecting how
effectively each feature can differentiate between each pair of classes. The
minimum number of features is selected using our newly developed Mean
Simplified Silhouette (abbreviated as MSS) index, designed to evaluate the
clustering results for the feature selection task. Experimental results on
public data sets demonstrate the superior performance of the proposed GB-AFS
over other filter-based techniques and automatic feature selection approaches.
Moreover, the proposed algorithm maintained the accuracy achieved when
utilizing all features, while using only $7\%$ to $30\%$ of the features.
Consequently, this resulted in a reduction of the time needed for
classifications, from $15\%$ to $70\%$.
- Abstract(参考訳): 本稿では,多クラス分類タスクの自動特徴選択(gb-afs)のためのグラフベースのフィルタ手法を提案する。
異なるクラス間の相補的識別能力を維持しつつ、予測性能を維持するために必要な機能の最小組み合わせを決定する。
選択する機能の数など、ユーザ定義パラメータを一切必要としない。
この手法は t-distributed Stochastic Neighbor Embedding (t-SNE) とともに、Jeffries-Matusita (JM) 距離を用いて、各特徴が各クラスをいかに効果的に区別できるかを反映した低次元空間を生成する。
特徴選択タスクのクラスタリング結果を評価するために,新たに開発したMean Simplified Silhouette(MSS)インデックスを用いて,最小限の機能数を選択する。
提案したGB-AFSは,他のフィルタ技術や自動特徴選択手法よりも優れた性能を示した。
さらに,提案手法では,すべての機能を利用する場合の精度を維持しつつ,機能のうち7~30ドル程度しか使用しなかった。
その結果、分類に要する時間を、$15\%$から$70\%$に短縮した。
関連論文リスト
- FastGAS: Fast Graph-based Annotation Selection for In-Context Learning [53.17606395275021]
インコンテキスト学習(ICL)は、大規模言語モデル(LLM)に対して、一連のトレーニングインスタンスをプロンプトとして使用することにより、新しいタスクに対処する権限を与える。
既存の手法では、アノテーションのラベルなし例のサブセットを選択する方法が提案されている。
本稿では,高品質なインスタンスを効率的に識別するグラフベースの選択手法であるFastGASを提案する。
論文 参考訳(メタデータ) (2024-06-06T04:05:54Z) - Feature Selection as Deep Sequential Generative Learning [50.00973409680637]
本研究では, 逐次再構成, 変分, 性能評価器の損失を伴って, 深部変分変圧器モデルを構築した。
提案モデルでは,特徴選択の知識を抽出し,連続的な埋め込み空間を学習し,特徴選択決定シーケンスをユーティリティスコアに関連付けられた埋め込みベクトルにマッピングする。
論文 参考訳(メタデータ) (2024-03-06T16:31:56Z) - A Performance-Driven Benchmark for Feature Selection in Tabular Deep
Learning [131.2910403490434]
データサイエンティストは通常、データセットにできるだけ多くの機能を集め、既存の機能から新しい機能を設計する。
既存のタブ形式の特徴選択のためのベンチマークでは、古典的な下流モデル、おもちゃの合成データセット、あるいは下流のパフォーマンスに基づいて特徴セレクタを評価していない。
変換器を含む下流ニューラルネットワーク上で評価された課題のある特徴選択ベンチマークを構築した。
また,従来の特徴選択法よりも高い性能を有するニューラルネットワークのための,Lassoのインプット・グラディエント・ベース・アナログも提案する。
論文 参考訳(メタデータ) (2023-11-10T05:26:10Z) - Graph-based Extreme Feature Selection for Multi-class Classification
Tasks [7.863638253070439]
本研究は,多クラス分類タスクに適したグラフベースのフィルタ特徴選択手法に焦点をあてる。
分類作業に有用な情報をコードするオリジナルデータのスケッチを作成するために,選択した特徴の数を劇的に削減することを目的としている。
論文 参考訳(メタデータ) (2023-03-03T09:06:35Z) - Model-free feature selection to facilitate automatic discovery of
divergent subgroups in tabular data [4.551615447454768]
本稿では,分散サブグループの自動発見を容易にするために,モデルフリーかつスパーシティベース自動特徴選択(SAFS)フレームワークを提案する。
2つの公開データセット(MIMIC-IIIとAllstate Claims)でSAFSを検証し、既存の6つの特徴選択手法と比較した。
論文 参考訳(メタデータ) (2022-03-08T20:42:56Z) - Compactness Score: A Fast Filter Method for Unsupervised Feature
Selection [66.84571085643928]
本稿では,CSUFS (Compactness Score) と呼ばれる高速な教師なし特徴選択手法を提案する。
提案アルゴリズムは既存のアルゴリズムよりも正確で効率的である。
論文 参考訳(メタデータ) (2022-01-31T13:01:37Z) - On the utility of power spectral techniques with feature selection
techniques for effective mental task classification in noninvasive BCI [19.19039983741124]
本稿では,メンタルタスク分類において,関連性および非関連性のあるスペクトル特徴を選択する手法を提案する。
その結果,メンタルタスク分類のための学習モデルの性能は大幅に向上した。
論文 参考訳(メタデータ) (2021-11-16T00:27:53Z) - Feature Selection Using Reinforcement Learning [0.0]
特定の関心の予測因子を特徴付けるために使用できる変数や特徴の空間は指数関数的に増大し続けている。
モデルのバイアスを損なうことなく分散を最小化する最も特徴的な特徴を特定することは、マシンラーニングモデルのトレーニングを成功させる上で非常に重要です。
論文 参考訳(メタデータ) (2021-01-23T09:24:37Z) - Joint Adaptive Graph and Structured Sparsity Regularization for
Unsupervised Feature Selection [6.41804410246642]
本稿では,共同適応グラフと構造付き空間正規化unsupervised feature selection (JASFS)法を提案する。
最適な機能のサブセットがグループで選択され、選択された機能の数が自動的に決定される。
8つのベンチマーク実験の結果,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2020-10-09T08:17:04Z) - Self-Supervised Tuning for Few-Shot Segmentation [82.32143982269892]
Few-shotのセグメンテーションは、アノテートされたサンプルがほとんどない各画像ピクセルにカテゴリラベルを割り当てることを目的としている。
既存のメタラーニング手法では, 画像から抽出した視覚的特徴を埋め込み空間に埋め込むと, カテゴリー別識別記述子の生成に失敗する傾向にある。
本稿では,複数のエピソードにまたがる潜在特徴の分布を,自己分割方式に基づいて動的に調整する適応型フレームワークチューニングを提案する。
論文 参考訳(メタデータ) (2020-04-12T03:53:53Z) - Selecting Relevant Features from a Multi-domain Representation for
Few-shot Classification [91.67977602992657]
本稿では,従来の特徴適応手法よりもシンプルかつ効果的である特徴選択に基づく新しい戦略を提案する。
このような特徴の上に構築された単純な非パラメトリック分類器は高い精度を示し、訓練中に見たことのない領域に一般化する。
論文 参考訳(メタデータ) (2020-03-20T15:44:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。