論文の概要: Parallel feature selection based on the trace ratio criterion
- arxiv url: http://arxiv.org/abs/2203.01635v1
- Date: Thu, 3 Mar 2022 10:50:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-05 02:21:35.014393
- Title: Parallel feature selection based on the trace ratio criterion
- Title(参考訳): トレース比基準に基づく並列特徴選択
- Authors: Thu Nguyen, Thanh Nhan Phan, Van Nhuong Nguyen, Thanh Binh Nguyen,
P{\aa}l Halvorsen, Michael Riegler
- Abstract要約: 本研究は,PFSTを用いた並列特徴選択という,新しい並列特徴選択手法を提案する。
提案手法は,Fisher's Discriminant Analysisで用いられるクラス分離性の尺度であるトレース基準を用いて特徴的有用性を評価する。
実験により,本手法は,比較対象の他の手法による時間的差のごく一部で,少数の特徴セットを生成できることが確認された。
- 参考スコア(独自算出の注目度): 4.30274561163157
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The growth of data today poses a challenge in management and inference. While
feature extraction methods are capable of reducing the size of the data for
inference, they do not help in minimizing the cost of data storage. On the
other hand, feature selection helps to remove the redundant features and
therefore is helpful not only in inference but also in reducing management
costs. This work presents a novel parallel feature selection approach for
classification, namely Parallel Feature Selection using Trace criterion (PFST),
which scales up to very large datasets. Our method uses trace criterion, a
measure of class separability used in Fisher's Discriminant Analysis, to
evaluate feature usefulness. We analyzed the criterion's desirable properties
theoretically. Based on the criterion, PFST rapidly finds important features
out of a set of features for big datasets by first making a forward selection
with early removal of seemingly redundant features parallelly. After the most
important features are included in the model, we check back their contribution
for possible interaction that may improve the fit. Lastly, we make a backward
selection to check back possible redundant added by the forward steps. We
evaluate our methods via various experiments using Linear Discriminant Analysis
as the classifier on selected features. The experiments show that our method
can produce a small set of features in a fraction of the amount of time by the
other methods under comparison. In addition, the classifier trained on the
features selected by PFST not only achieves better accuracy than the ones
chosen by other approaches but can also achieve better accuracy than the
classification on all available features.
- Abstract(参考訳): 今日のデータの成長は、管理と推論に挑戦している。
特徴抽出法は推論のためのデータサイズを減らすことができるが、データストレージのコストを最小限に抑えるには役に立たない。
一方、機能の選択は冗長な機能を取り除くのに役立つため、推論だけでなく、管理コストの削減にも役立ちます。
本研究は,非常に大規模なデータセットにスケールする並列特徴選択手法,すなわちトレース基準を用いた並列特徴選択(pfst)を提案する。
本研究では,fisher の判別分析におけるクラス分離性尺度である trace criterion を用いて特徴的有用性を評価する。
基準の望ましい性質を理論的に分析した。
この基準に基づいてpfstは、一見冗長に見える機能を並列に削除して、最初に前方選択を行うことで、ビッグデータセットの一連の機能から急速に重要な機能を見つけ出す。
モデルに最も重要な機能が含まれた後、適合性を改善する可能性のあるインタラクションに対する貢献を振り返る。
最後に、前方ステップで追加された冗長性をチェックするために、後方選択を行います。
本手法は,選択した特徴の分類器として線形判別分析を用いて各種実験により評価した。
実験により,本手法は,比較対象の他の手法による時間的差の小さい特徴セットを生成可能であることが示された。
さらに、pfst が選択した特徴を訓練した分類器は、他の手法で選択した特徴よりも精度が向上するだけでなく、利用可能な全ての特徴の分類よりも精度が向上する。
関連論文リスト
- Feature Selection as Deep Sequential Generative Learning [50.00973409680637]
本研究では, 逐次再構成, 変分, 性能評価器の損失を伴って, 深部変分変圧器モデルを構築した。
提案モデルでは,特徴選択の知識を抽出し,連続的な埋め込み空間を学習し,特徴選択決定シーケンスをユーティリティスコアに関連付けられた埋め込みベクトルにマッピングする。
論文 参考訳(メタデータ) (2024-03-06T16:31:56Z) - A Performance-Driven Benchmark for Feature Selection in Tabular Deep
Learning [131.2910403490434]
データサイエンティストは通常、データセットにできるだけ多くの機能を集め、既存の機能から新しい機能を設計する。
既存のタブ形式の特徴選択のためのベンチマークでは、古典的な下流モデル、おもちゃの合成データセット、あるいは下流のパフォーマンスに基づいて特徴セレクタを評価していない。
変換器を含む下流ニューラルネットワーク上で評価された課題のある特徴選択ベンチマークを構築した。
また,従来の特徴選択法よりも高い性能を有するニューラルネットワークのための,Lassoのインプット・グラディエント・ベース・アナログも提案する。
論文 参考訳(メタデータ) (2023-11-10T05:26:10Z) - Causal Feature Selection via Transfer Entropy [59.999594949050596]
因果発見は、観察データによる特徴間の因果関係を特定することを目的としている。
本稿では,前向きと後向きの機能選択に依存する新たな因果的特徴選択手法を提案する。
精度および有限サンプルの場合の回帰誤差と分類誤差について理論的に保証する。
論文 参考訳(メタデータ) (2023-10-17T08:04:45Z) - Compactness Score: A Fast Filter Method for Unsupervised Feature
Selection [66.84571085643928]
本稿では,CSUFS (Compactness Score) と呼ばれる高速な教師なし特徴選択手法を提案する。
提案アルゴリズムは既存のアルゴリズムよりも正確で効率的である。
論文 参考訳(メタデータ) (2022-01-31T13:01:37Z) - Dynamic Instance-Wise Classification in Correlated Feature Spaces [15.351282873821935]
典型的な機械学習環境では、すべてのテストインスタンスの予測は、モデルトレーニング中に発見された機能の共通サブセットに基づいている。
それぞれのテストインスタンスに対して個別に評価する最適な特徴を順次選択し、分類精度に関して更なる改善が得られないことを判断すると、選択プロセスが終了して予測を行う新しい手法を提案する。
提案手法の有効性, 一般化性, 拡張性について, 多様なアプリケーション領域の様々な実世界のデータセットで説明する。
論文 参考訳(メタデータ) (2021-06-08T20:20:36Z) - Feature Selection Using Reinforcement Learning [0.0]
特定の関心の予測因子を特徴付けるために使用できる変数や特徴の空間は指数関数的に増大し続けている。
モデルのバイアスを損なうことなく分散を最小化する最も特徴的な特徴を特定することは、マシンラーニングモデルのトレーニングを成功させる上で非常に重要です。
論文 参考訳(メタデータ) (2021-01-23T09:24:37Z) - Adaptive Graph-based Generalized Regression Model for Unsupervised
Feature Selection [11.214334712819396]
非相関的かつ識別的特徴の選択は、教師なしの機能選択の重要な問題である。
非相関制約と $ell_2,1$-norm 正規化によって課される新しい一般化回帰モデルを提案する。
それは同時に同じ近所に属するこれらのデータ ポイントの分散を減らすこと無相関および差別的な特徴を選ぶことができます。
論文 参考訳(メタデータ) (2020-12-27T09:07:26Z) - Joint Adaptive Graph and Structured Sparsity Regularization for
Unsupervised Feature Selection [6.41804410246642]
本稿では,共同適応グラフと構造付き空間正規化unsupervised feature selection (JASFS)法を提案する。
最適な機能のサブセットがグループで選択され、選択された機能の数が自動的に決定される。
8つのベンチマーク実験の結果,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2020-10-09T08:17:04Z) - Infinite Feature Selection: A Graph-based Feature Filtering Approach [78.63188057505012]
グラフ内の経路として特徴のサブセットを考慮したフィルタリング機能選択フレームワークを提案する。
無限に進むことで、選択プロセスの計算複雑性を制限できる。
Inf-FSはほとんどどんな状況でも、つまり、保持するフィーチャの数が優先順位に固定されているときに、より良く振る舞うことを示す。
論文 参考訳(メタデータ) (2020-06-15T07:20:40Z) - IVFS: Simple and Efficient Feature Selection for High Dimensional
Topology Preservation [33.424663018395684]
本稿では,サンプル類似性保存を向上する簡易かつ効果的な特徴選択アルゴリズムを提案する。
提案アルゴリズムは、全データの対距離と位相パターンを適切に保存することができる。
論文 参考訳(メタデータ) (2020-04-02T23:05:00Z) - Selecting Relevant Features from a Multi-domain Representation for
Few-shot Classification [91.67977602992657]
本稿では,従来の特徴適応手法よりもシンプルかつ効果的である特徴選択に基づく新しい戦略を提案する。
このような特徴の上に構築された単純な非パラメトリック分類器は高い精度を示し、訓練中に見たことのない領域に一般化する。
論文 参考訳(メタデータ) (2020-03-20T15:44:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。