論文の概要: A Contrast Based Feature Selection Algorithm for High-dimensional Data
set in Machine Learning
- arxiv url: http://arxiv.org/abs/2401.07482v1
- Date: Mon, 15 Jan 2024 05:32:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 17:57:12.997286
- Title: A Contrast Based Feature Selection Algorithm for High-dimensional Data
set in Machine Learning
- Title(参考訳): 機械学習における高次元データセットのコントラストに基づく特徴選択アルゴリズム
- Authors: Chunxu Cao, Qiang Zhang
- Abstract要約: 本稿では,異なるクラス間で示される相違点に基づいて識別的特徴を抽出する新しいフィルタ特徴選択手法であるContrastFSを提案する。
提案手法の有効性と有効性について検証し,提案手法が無視可能な計算で良好に動作することを示す。
- 参考スコア(独自算出の注目度): 9.596923373834093
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Feature selection is an important process in machine learning and knowledge
discovery. By selecting the most informative features and eliminating
irrelevant ones, the performance of learning algorithms can be improved and the
extraction of meaningful patterns and insights from data can be facilitated.
However, most existing feature selection methods, when applied to large
datasets, encountered the bottleneck of high computation costs. To address this
problem, we propose a novel filter feature selection method, ContrastFS, which
selects discriminative features based on the discrepancies features shown
between different classes. We introduce a dimensionless quantity as a surrogate
representation to summarize the distributional individuality of certain
classes, based on this quantity we evaluate features and study the correlation
among them. We validate effectiveness and efficiency of our approach on several
widely studied benchmark datasets, results show that the new method performs
favorably with negligible computation in comparison with other state-of-the-art
feature selection methods.
- Abstract(参考訳): 特徴選択は機械学習と知識発見において重要なプロセスである。
最も有意義な特徴の選択と無関係な特徴の排除により、学習アルゴリズムの性能が向上し、データから有意義なパターンや洞察の抽出が容易になる。
しかし、既存の機能選択手法の多くは、大規模なデータセットに適用すると、高い計算コストのボトルネックに遭遇する。
この問題に対処するために,異なるクラス間で示される相違点に基づいて識別的特徴を選択する新しいフィルタ特徴選択手法であるContrastFSを提案する。
この量に基づいて,あるクラスの分布的個性を要約する代理表現として無次元量を導入し,それらの特徴を評価し,それらの相関について検討する。
提案手法の有効性と有効性について検証し,提案手法が他の最先端特徴選択法と比較して無視可能な計算により良好に動作することを示す。
関連論文リスト
- Feature Selection as Deep Sequential Generative Learning [50.00973409680637]
本研究では, 逐次再構成, 変分, 性能評価器の損失を伴って, 深部変分変圧器モデルを構築した。
提案モデルでは,特徴選択の知識を抽出し,連続的な埋め込み空間を学習し,特徴選択決定シーケンスをユーティリティスコアに関連付けられた埋め込みベクトルにマッピングする。
論文 参考訳(メタデータ) (2024-03-06T16:31:56Z) - Causal Feature Selection via Transfer Entropy [59.999594949050596]
因果発見は、観察データによる特徴間の因果関係を特定することを目的としている。
本稿では,前向きと後向きの機能選択に依存する新たな因果的特徴選択手法を提案する。
精度および有限サンプルの場合の回帰誤差と分類誤差について理論的に保証する。
論文 参考訳(メタデータ) (2023-10-17T08:04:45Z) - Convolutional autoencoder-based multimodal one-class classification [80.52334952912808]
1クラス分類は、単一のクラスからのデータを用いた学習のアプローチを指す。
マルチモーダルデータに適した深層学習一クラス分類法を提案する。
論文 参考訳(メタデータ) (2023-09-25T12:31:18Z) - Feature Selection: A perspective on inter-attribute cooperation [0.0]
高次元データセットは、データマイニングと機械学習におけるタスク学習の課題を描いている。
特徴選択は次元削減に有効な手法である。
本稿では,機能間協調によるフィルタ特徴選択手法に関する最新の研究について述べる。
論文 参考訳(メタデータ) (2023-06-28T21:00:52Z) - Deep Feature Selection Using a Novel Complementary Feature Mask [5.904240881373805]
重要度が低い機能を活用することで、機能選択に対処します。
本稿では,新しい補完機能マスクに基づく特徴選択フレームワークを提案する。
提案手法は汎用的であり,既存のディープラーニングに基づく特徴選択手法に容易に組み込むことができる。
論文 参考訳(メタデータ) (2022-09-25T18:03:30Z) - Exploiting Diversity of Unlabeled Data for Label-Efficient
Semi-Supervised Active Learning [57.436224561482966]
アクティブラーニング(英: Active Learning)は、ラベリングのための最も重要なサンプルを選択することで、高価なラベリングの問題に対処する研究分野である。
アクティブな学習環境における初期ラベル付けのための最も情報性の高いサンプル群を選択するために,多様性に基づく新しい初期データセット選択アルゴリズムを提案する。
また、一貫性に基づく埋め込みの多様性に基づくサンプリングを用いた、新しいアクティブな学習クエリ戦略を提案する。
論文 参考訳(メタデータ) (2022-07-25T16:11:55Z) - Compactness Score: A Fast Filter Method for Unsupervised Feature
Selection [66.84571085643928]
本稿では,CSUFS (Compactness Score) と呼ばれる高速な教師なし特徴選択手法を提案する。
提案アルゴリズムは既存のアルゴリズムよりも正確で効率的である。
論文 参考訳(メタデータ) (2022-01-31T13:01:37Z) - Auto-weighted Multi-view Feature Selection with Graph Optimization [90.26124046530319]
グラフ学習に基づく新しい教師なしマルチビュー特徴選択モデルを提案する。
1) 特徴選択過程において, 異なる視点で共有されたコンセンサス類似度グラフが学習される。
各種データセットを用いた実験により,提案手法が最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-11T03:25:25Z) - Feature Selection Using Reinforcement Learning [0.0]
特定の関心の予測因子を特徴付けるために使用できる変数や特徴の空間は指数関数的に増大し続けている。
モデルのバイアスを損なうことなく分散を最小化する最も特徴的な特徴を特定することは、マシンラーニングモデルのトレーニングを成功させる上で非常に重要です。
論文 参考訳(メタデータ) (2021-01-23T09:24:37Z) - Joint Adaptive Graph and Structured Sparsity Regularization for
Unsupervised Feature Selection [6.41804410246642]
本稿では,共同適応グラフと構造付き空間正規化unsupervised feature selection (JASFS)法を提案する。
最適な機能のサブセットがグループで選択され、選択された機能の数が自動的に決定される。
8つのベンチマーク実験の結果,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2020-10-09T08:17:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。