論文の概要: EasyFS: an Efficient Model-free Feature Selection Framework via Elastic
Transformation of Features
- arxiv url: http://arxiv.org/abs/2402.05954v1
- Date: Sun, 4 Feb 2024 09:25:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-18 14:19:52.509634
- Title: EasyFS: an Efficient Model-free Feature Selection Framework via Elastic
Transformation of Features
- Title(参考訳): EasyFS: 機能の弾性変換による効率的なモデルフリー機能選択フレームワーク
- Authors: Jianming Lv, Sijun Xia, Depin Liang, Wei Chen
- Abstract要約: 本稿では,従来のモデル認識手法よりも優れた性能を実現するために,機能拡張と圧縮による効率的なモデルフリー特徴選択フレームワーク,すなわちEasyFSを提案する。
21の異なるデータセットの実験では、EasyFSは回帰タスクの10.9%、分類タスクの5.7%で最先端のメソッドよりも優れており、時間の94%以上を節約している。
- 参考スコア(独自算出の注目度): 8.503238425293754
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional model-free feature selection methods treat each feature
independently while disregarding the interrelationships among features, which
leads to relatively poor performance compared with the model-aware methods. To
address this challenge, we propose an efficient model-free feature selection
framework via elastic expansion and compression of the features, namely EasyFS,
to achieve better performance than state-of-the-art model-aware methods while
sharing the characters of efficiency and flexibility with the existing
model-free methods. In particular, EasyFS expands the feature space by using
the random non-linear projection network to achieve the non-linear combinations
of the original features, so as to model the interrelationships among the
features and discover most correlated features. Meanwhile, a novel redundancy
measurement based on the change of coding rate is proposed for efficient
filtering of redundant features. Comprehensive experiments on 21 different
datasets show that EasyFS outperforms state-of-the art methods up to 10.9\% in
the regression tasks and 5.7\% in the classification tasks while saving more
than 94\% of the time.
- Abstract(参考訳): 従来のモデルフリーな特徴選択手法は、特徴間の相互関係を無視しながら、各特徴を独立して扱う。
この課題に対処するために,従来のモデルフリー手法と効率性と柔軟性を両立させながら,最先端のモデルアウェア方式よりも優れた性能を実現するために,機能の拡張と圧縮による効率的なモデルフリー特徴選択フレームワークを提案する。
特に、EasyFSは、ランダムな非線形投影ネットワークを用いて、元の特徴の非線形結合を達成し、特徴間の相互関係をモデル化し、最も相関した特徴を発見することで、特徴空間を拡張する。
一方,冗長な特徴の効率的なフィルタリングのために,符号化速度の変化に基づく冗長性測定手法を提案する。
21の異なるデータセットに関する総合的な実験によると、EasyFSは回帰タスクで10.9\%、分類タスクで5.7\%、そして94\%以上の時間を節約している。
関連論文リスト
- Causal Feature Selection Method for Contextual Multi-Armed Bandits in Recommender System [2.704084816922349]
機械学習モデルの特徴選択手法は、文脈的マルチアームバンディット(MAB)のユースケースでは不十分である。
本稿では,連続MAB問題を対象としたモデルフリー特徴選択手法を提案する。
その結果、この特徴選択法は、文脈的MAB報酬の増大につながる重要な特徴を効果的に選択することを示した。
論文 参考訳(メタデータ) (2024-09-20T20:39:23Z) - A Refreshed Similarity-based Upsampler for Direct High-Ratio Feature Upsampling [54.05517338122698]
本稿では,セマンティック・アウェアとディテール・アウェアの両方の観点から,明示的に制御可能なクエリキー機能アライメントを提案する。
また,モーザイクアーティファクトを緩和するのには単純だが有効であるHR特徴量に対して,きめ細かな近傍選択戦略を開発した。
提案するReSFUフレームワークは,異なるセグメンテーションアプリケーション上での良好な性能を一貫して達成する。
論文 参考訳(メタデータ) (2024-07-02T14:12:21Z) - Spurious Feature Eraser: Stabilizing Test-Time Adaptation for Vision-Language Foundation Model [86.9619638550683]
視覚言語基礎モデルは、画像とテキストのペアデータに拡張性があるため、多数の下流タスクで顕著な成功を収めている。
しかし、これらのモデルは、決定ショートカットの結果、きめ細かな画像分類などの下流タスクに適用した場合に重大な制限を呈する」。
論文 参考訳(メタデータ) (2024-03-01T09:01:53Z) - LoBaSS: Gauging Learnability in Supervised Fine-tuning Data [64.27898739929734]
Supervised Fine-Tuning (SFT) は、Large Language Models (LLM) を特定のタスクの前提条件に合わせる上で重要なフェーズである。
SFTデータ選択における新しい次元:学習可能性について紹介する。
そこで我々はLoss Based SFT Data Selection (LoBaSS) 法を提案する。
論文 参考訳(メタデータ) (2023-10-16T07:26:24Z) - FedSDG-FS: Efficient and Secure Feature Selection for Vertical Federated
Learning [21.79965380400454]
Vertical Learning(VFL)は、複数のデータオーナに対して、大きな重複するデータサンプルセットに関する機能のサブセットをそれぞれ保持して、有用なグローバルモデルを共同でトレーニングすることを可能にする。
VFLのために設計された既存のFSは、ノイズの多い特徴の数について事前知識を仮定するか、有用な特徴の訓練後のしきい値について事前知識を仮定する。
本稿では,FedSDG-FS(Federated Dual-Gate Based Feature Selection)アプローチを提案する。
論文 参考訳(メタデータ) (2023-02-21T03:09:45Z) - Learning to Maximize Mutual Information for Dynamic Feature Selection [13.821253491768168]
本稿では,現在利用可能な情報に基づいてモデルを逐次クエリする動的特徴選択(DFS)問題を考察する。
条件付き相互情報に基づいて,特徴を欲求的に選択する,よりシンプルなアプローチについて検討する。
提案手法は,最適性を訓練した際の欲求を回復し,既存の特徴選択法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-01-02T08:31:56Z) - Scaling & Shifting Your Features: A New Baseline for Efficient Model
Tuning [126.84770886628833]
既存の微調整法は、事前訓練されたモデルの全てのパラメータ(フル微調整)をチューニングするか、最後の線形層(線形プローブ)のみをチューニングする。
そこで本研究では,SSFと呼ばれるパラメータ効率の高いファインタニング手法を提案する。
論文 参考訳(メタデータ) (2022-10-17T08:14:49Z) - Model-free feature selection to facilitate automatic discovery of
divergent subgroups in tabular data [4.551615447454768]
本稿では,分散サブグループの自動発見を容易にするために,モデルフリーかつスパーシティベース自動特徴選択(SAFS)フレームワークを提案する。
2つの公開データセット(MIMIC-IIIとAllstate Claims)でSAFSを検証し、既存の6つの特徴選択手法と比較した。
論文 参考訳(メタデータ) (2022-03-08T20:42:56Z) - Compactness Score: A Fast Filter Method for Unsupervised Feature
Selection [66.84571085643928]
本稿では,CSUFS (Compactness Score) と呼ばれる高速な教師なし特徴選択手法を提案する。
提案アルゴリズムは既存のアルゴリズムよりも正確で効率的である。
論文 参考訳(メタデータ) (2022-01-31T13:01:37Z) - Efficient Data-specific Model Search for Collaborative Filtering [56.60519991956558]
協調フィルタリング(CF)はレコメンダシステムの基本的なアプローチである。
本稿では,機械学習(AutoML)の最近の進歩を動機として,データ固有のCFモデルを設計することを提案する。
ここでキーとなるのは、最先端(SOTA)のCFメソッドを統一し、それらを入力エンコーディング、埋め込み関数、インタラクション、予測関数の非結合ステージに分割する新しいフレームワークである。
論文 参考訳(メタデータ) (2021-06-14T14:30:32Z) - Feature Selection Library (MATLAB Toolbox) [1.2058143465239939]
Feature Selection Library (FSLib) には、FSアルゴリズムの包括的なスイートが導入されている。
FSLibは次元の呪いに対処し、計算負荷を減らし、モデルの一般化性を高める。
FSLibは、重要な特徴を明らかにし、パターン認識と理解を支援することで、データの解釈可能性に貢献している。
論文 参考訳(メタデータ) (2016-07-05T16:50:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。