論文の概要: Binary Feature Mask Optimization for Feature Selection
- arxiv url: http://arxiv.org/abs/2401.12644v2
- Date: Sun, 01 Dec 2024 09:09:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-03 20:22:14.795680
- Title: Binary Feature Mask Optimization for Feature Selection
- Title(参考訳): 特徴選択のための二元的特徴マスク最適化
- Authors: Mehmet E. Lorasdagi, Mehmet Y. Turali, Suleyman S. Kozat,
- Abstract要約: モデルの結果を考慮した特徴を選択する新しいフレームワークを提案する。
機械学習モデルの予測を用いてマスク演算子を得る。
実生活データセットの大幅な性能向上を示す。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: We investigate feature selection problem for generic machine learning models. We introduce a novel framework that selects features considering the outcomes of the model. Our framework introduces a novel feature masking approach to eliminate the features during the selection process, instead of completely removing them from the dataset. This allows us to use the same machine learning model during feature selection, unlike other feature selection methods where we need to train the machine learning model again as the dataset has different dimensions on each iteration. We obtain the mask operator using the predictions of the machine learning model, which offers a comprehensive view on the subsets of the features essential for the predictive performance of the model. A variety of approaches exist in the feature selection literature. However, to our knowledge, no study has introduced a training-free framework for a generic machine learning model to select features while considering the importance of the feature subsets as a whole, instead of focusing on the individual features. We demonstrate significant performance improvements on the real-life datasets under different settings using LightGBM and Multi-Layer Perceptron as our machine learning models. The high performance of our General Binary Mask Optimization algorithm stems from its feature masking approach to select features and its flexibility in the number of selected features. The algorithm selects features based on the validation performance of the machine learning model. Hence, the number of selected features is not predetermined and adjusts dynamically to the dataset. Additionally, we openly share the implementation or our code to encourage further research in this area.
- Abstract(参考訳): 汎用機械学習モデルにおける特徴選択問題について検討する。
モデルの結果を考慮した特徴を選択する新しいフレームワークを提案する。
我々のフレームワークは、データセットから完全に取り除くのではなく、選択プロセス中の機能を除去する、新しい機能マスキングアプローチを導入しています。
データセットがイテレーション毎に異なる次元を持つため、マシンラーニングモデルを再びトレーニングする必要がある他の機能選択方法とは異なり、この機能選択中に同じ機械学習モデルを使用することができます。
予測性能に不可欠な特徴のサブセットを包括的に把握する機械学習モデルの予測を用いて,マスク演算子を得る。
特徴選択文学には様々なアプローチが存在する。
しかし、我々の知る限りでは、個々の特徴に焦点をあてるのではなく、機能部分集合全体の重要性を考慮しながら、機能を選択する汎用機械学習モデルのためのトレーニング不要のフレームワークを導入する研究はない。
機械学習モデルとしてLightGBMとMulti-Layer Perceptronを用いて,異なる環境下でのリアルタイムデータセットの性能向上を示す。
General Binary Mask Optimizationアルゴリズムの高性能化は、選択した特徴数におけるその柔軟性と特徴マスキングアプローチに起因している。
アルゴリズムは、機械学習モデルの検証性能に基づいて特徴を選択する。
したがって、選択された特徴の数は決まっておらず、データセットに動的に調整される。
さらに、我々は、この分野のさらなる研究を促進するために、オープンに実装やコードを公開しています。
関連論文リスト
- Feature Selection for Latent Factor Models [2.07180164747172]
特徴の選択は、高次元データセットで関連する特徴をピンポイントするのに不可欠である。
分類のための伝統的な特徴選択方法は、クラスごとに特徴を選択するためにすべてのクラスからデータを使用する。
本稿では,低ランク生成法に基づくクラスモデルを用いて,各クラスの特徴を個別に選択する特徴選択手法について検討する。
論文 参考訳(メタデータ) (2024-12-13T13:20:10Z) - Shap-Select: Lightweight Feature Selection Using SHAP Values and Regression [0.0]
本稿では,新しい特徴選択フレームワーク,shap-selectを提案する。
フレームワークは、特徴のShapley値、検証セットに基づいてターゲットの線形的あるいはロジスティックな回帰を行い、回帰係数の符号と重要度を用いて特徴選択の効率的な実装を行う。
筆者らは、Kaggleクレジットカード詐欺データセットのシェープ選択を評価し、確立された方法と比較して、その有効性を実証した。
論文 参考訳(メタデータ) (2024-10-09T12:14:06Z) - Feature Selection as Deep Sequential Generative Learning [50.00973409680637]
本研究では, 逐次再構成, 変分, 性能評価器の損失を伴って, 深部変分変圧器モデルを構築した。
提案モデルでは,特徴選択の知識を抽出し,連続的な埋め込み空間を学習し,特徴選択決定シーケンスをユーティリティスコアに関連付けられた埋め込みベクトルにマッピングする。
論文 参考訳(メタデータ) (2024-03-06T16:31:56Z) - A Contrast Based Feature Selection Algorithm for High-dimensional Data
set in Machine Learning [9.596923373834093]
本稿では,異なるクラス間で示される相違点に基づいて識別的特徴を抽出する新しいフィルタ特徴選択手法であるContrastFSを提案する。
提案手法の有効性と有効性について検証し,提案手法が無視可能な計算で良好に動作することを示す。
論文 参考訳(メタデータ) (2024-01-15T05:32:35Z) - A Performance-Driven Benchmark for Feature Selection in Tabular Deep
Learning [131.2910403490434]
データサイエンティストは通常、データセットにできるだけ多くの機能を集め、既存の機能から新しい機能を設計する。
既存のタブ形式の特徴選択のためのベンチマークでは、古典的な下流モデル、おもちゃの合成データセット、あるいは下流のパフォーマンスに基づいて特徴セレクタを評価していない。
変換器を含む下流ニューラルネットワーク上で評価された課題のある特徴選択ベンチマークを構築した。
また,従来の特徴選択法よりも高い性能を有するニューラルネットワークのための,Lassoのインプット・グラディエント・ベース・アナログも提案する。
論文 参考訳(メタデータ) (2023-11-10T05:26:10Z) - Deep Feature Selection Using a Novel Complementary Feature Mask [5.904240881373805]
重要度が低い機能を活用することで、機能選択に対処します。
本稿では,新しい補完機能マスクに基づく特徴選択フレームワークを提案する。
提案手法は汎用的であり,既存のディープラーニングに基づく特徴選択手法に容易に組み込むことができる。
論文 参考訳(メタデータ) (2022-09-25T18:03:30Z) - Compositional Fine-Grained Low-Shot Learning [58.53111180904687]
そこで本研究では,ゼロおよび少数ショット学習のための新しい合成生成モデルを構築し,学習サンプルの少ない,あるいは全くない,きめ細かいクラスを認識する。
本稿では, 学習サンプルから属性特徴を抽出し, それらを組み合わせて, 稀で見えないクラスのためのきめ細かい特徴を構築できる特徴合成フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-21T16:18:24Z) - Auto-weighted Multi-view Feature Selection with Graph Optimization [90.26124046530319]
グラフ学習に基づく新しい教師なしマルチビュー特徴選択モデルを提案する。
1) 特徴選択過程において, 異なる視点で共有されたコンセンサス類似度グラフが学習される。
各種データセットを用いた実験により,提案手法が最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-11T03:25:25Z) - Feature Selection Using Reinforcement Learning [0.0]
特定の関心の予測因子を特徴付けるために使用できる変数や特徴の空間は指数関数的に増大し続けている。
モデルのバイアスを損なうことなく分散を最小化する最も特徴的な特徴を特定することは、マシンラーニングモデルのトレーニングを成功させる上で非常に重要です。
論文 参考訳(メタデータ) (2021-01-23T09:24:37Z) - Selecting Relevant Features from a Multi-domain Representation for
Few-shot Classification [91.67977602992657]
本稿では,従来の特徴適応手法よりもシンプルかつ効果的である特徴選択に基づく新しい戦略を提案する。
このような特徴の上に構築された単純な非パラメトリック分類器は高い精度を示し、訓練中に見たことのない領域に一般化する。
論文 参考訳(メタデータ) (2020-03-20T15:44:17Z) - Stepwise Model Selection for Sequence Prediction via Deep Kernel
Learning [100.83444258562263]
本稿では,モデル選択の課題を解決するために,新しいベイズ最適化(BO)アルゴリズムを提案する。
結果として得られる複数のブラックボックス関数の最適化問題を協調的かつ効率的に解くために,ブラックボックス関数間の潜在的な相関を利用する。
我々は、シーケンス予測のための段階的モデル選択(SMS)の問題を初めて定式化し、この目的のために効率的な共同学習アルゴリズムを設計し、実証する。
論文 参考訳(メタデータ) (2020-01-12T09:42:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。