論文の概要: Feature Selection for Latent Factor Models
- arxiv url: http://arxiv.org/abs/2412.10128v1
- Date: Fri, 13 Dec 2024 13:20:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-16 15:01:39.661907
- Title: Feature Selection for Latent Factor Models
- Title(参考訳): 潜在因子モデルの特徴選択
- Authors: Rittwika Kansabanik, Adrian Barbu,
- Abstract要約: 特徴の選択は、高次元データセットで関連する特徴をピンポイントするのに不可欠である。
分類のための伝統的な特徴選択方法は、クラスごとに特徴を選択するためにすべてのクラスからデータを使用する。
本稿では,低ランク生成法に基づくクラスモデルを用いて,各クラスの特徴を個別に選択する特徴選択手法について検討する。
- 参考スコア(独自算出の注目度): 2.07180164747172
- License:
- Abstract: Feature selection is crucial for pinpointing relevant features in high-dimensional datasets, mitigating the 'curse of dimensionality,' and enhancing machine learning performance. Traditional feature selection methods for classification use data from all classes to select features for each class. This paper explores feature selection methods that select features for each class separately, using class models based on low-rank generative methods and introducing a signal-to-noise ratio (SNR) feature selection criterion. This novel approach has theoretical true feature recovery guarantees under certain assumptions and is shown to outperform some existing feature selection methods on standard classification datasets.
- Abstract(参考訳): 特徴選択は、高次元データセットにおける関連する特徴をピンポイントし、「次元の曲線」を緩和し、機械学習のパフォーマンスを向上させるために重要である。
分類のための伝統的な特徴選択方法は、クラスごとに特徴を選択するためにすべてのクラスからデータを使用する。
本稿では,低ランク生成法に基づくクラスモデルを用いて,各クラスの特徴を個別に選択する特徴選択法と,信号対雑音比(SNR)特徴選択基準を導入することを提案する。
この新しい手法は、特定の仮定の下での理論的に真の特徴回復を保証するもので、標準的な分類データセットにおいて既存の特徴選択方法よりも優れていることを示す。
関連論文リスト
- Greedy feature selection: Classifier-dependent feature selection via
greedy methods [2.4374097382908477]
本研究の目的は, グリージーな特徴選択に追随する特徴選択と呼ばれる, 分類タスクにおける特徴ランク付けのための新しいアプローチを導入することである。
このようなスキームの利点は、Vapnik-Chervonenkis(VC)次元やカーネルアライメントといったモデルキャパシティインジケータの観点から理論的に研究されている。
論文 参考訳(メタデータ) (2024-03-08T08:12:05Z) - Feature Selection as Deep Sequential Generative Learning [50.00973409680637]
本研究では, 逐次再構成, 変分, 性能評価器の損失を伴って, 深部変分変圧器モデルを構築した。
提案モデルでは,特徴選択の知識を抽出し,連続的な埋め込み空間を学習し,特徴選択決定シーケンスをユーティリティスコアに関連付けられた埋め込みベクトルにマッピングする。
論文 参考訳(メタデータ) (2024-03-06T16:31:56Z) - A Performance-Driven Benchmark for Feature Selection in Tabular Deep
Learning [131.2910403490434]
データサイエンティストは通常、データセットにできるだけ多くの機能を集め、既存の機能から新しい機能を設計する。
既存のタブ形式の特徴選択のためのベンチマークでは、古典的な下流モデル、おもちゃの合成データセット、あるいは下流のパフォーマンスに基づいて特徴セレクタを評価していない。
変換器を含む下流ニューラルネットワーク上で評価された課題のある特徴選択ベンチマークを構築した。
また,従来の特徴選択法よりも高い性能を有するニューラルネットワークのための,Lassoのインプット・グラディエント・ベース・アナログも提案する。
論文 参考訳(メタデータ) (2023-11-10T05:26:10Z) - Clustering Indices based Automatic Classification Model Selection [16.096824533334352]
そこで本研究では,候補モデルクラスから自動分類モデル選択を行う手法を提案する。
データセットクラスタリング指標を計算し、学習した回帰器を用いて予測された分類性能を直接予測する。
また,モデル選択法に基づくデータ分類のためのエンドツーエンド自動MLシステムを提案する。
論文 参考訳(メタデータ) (2023-05-23T10:52:37Z) - Graph Convolutional Network-based Feature Selection for High-dimensional
and Low-sample Size Data [4.266990593059533]
本稿では,GRAph Convolutional nEtwork feature Selector (GRACES) という深層学習に基づく手法を提案する。
GRACESは、合成データセットと実世界のデータセットの両方において、他の特徴選択方法よりも優れているという実証的な証拠を実証する。
論文 参考訳(メタデータ) (2022-11-25T14:46:36Z) - Understanding the classes better with class-specific and rule-specific
feature selection, and redundancy control in a fuzzy rule based framework [5.5612170847190665]
本稿ではファジィルールに基づく分類器に組込み,クラス固有の特徴選択手法を提案する。
本手法はクラス固有のサブセットを含むクラス固有のルールを生成する。
提案手法の有効性は3つの合成データセットの実験を通して検証された。
論文 参考訳(メタデータ) (2022-08-02T07:45:34Z) - Selecting the suitable resampling strategy for imbalanced data
classification regarding dataset properties [62.997667081978825]
医学、情報検索、サイバーセキュリティ、ソーシャルメディアなどの多くのアプリケーションドメインでは、分類モデルの導入に使用されるデータセットは、各クラスのインスタンスの不平等な分布を持つことが多い。
この状況は不均衡データ分類と呼ばれ、少数民族の例では予測性能が低い。
オーバーサンプリングとアンダーサンプリングの技術は、各クラスの例の数とバランスをとることでこの問題に対処する、よく知られた戦略である。
論文 参考訳(メタデータ) (2021-12-15T18:56:39Z) - A Supervised Feature Selection Method For Mixed-Type Data using
Density-based Feature Clustering [1.3048920509133808]
本稿では、密度ベース特徴クラスタリング(SFSDFC)を用いた教師付き特徴選択法を提案する。
SFSDFCは、新しい密度に基づくクラスタリング法を用いて、特徴空間を不連続な特徴クラスタの集合に分解する。
そして、これらの特徴クラスタから最小限の冗長性を持つ重要な特徴のサブセットを得るために、効果的な特徴選択戦略を採用する。
論文 参考訳(メタデータ) (2021-11-10T15:05:15Z) - Multivariate feature ranking of gene expression data [62.997667081978825]
ペアワイズ相関とペアワイズ整合性に基づく2つの新しい多変量特徴ランキング手法を提案する。
提案手法は, クラスタリング変動, チ・スクエアド, 相関, 情報ゲイン, ReliefF および Significance の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-03T17:19:53Z) - Deep Learning feature selection to unhide demographic recommender
systems factors [63.732639864601914]
行列分解モデルは意味的知識を含まない因子を生成する。
DeepUnHideは、協調フィルタリングレコメンデータシステムにおいて、ユーザとアイテムファクタから、人口統計情報を抽出することができる。
論文 参考訳(メタデータ) (2020-06-17T17:36:48Z) - Selecting Relevant Features from a Multi-domain Representation for
Few-shot Classification [91.67977602992657]
本稿では,従来の特徴適応手法よりもシンプルかつ効果的である特徴選択に基づく新しい戦略を提案する。
このような特徴の上に構築された単純な非パラメトリック分類器は高い精度を示し、訓練中に見たことのない領域に一般化する。
論文 参考訳(メタデータ) (2020-03-20T15:44:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。