論文の概要: A-SFS: Semi-supervised Feature Selection based on Multi-task
Self-supervision
- arxiv url: http://arxiv.org/abs/2207.09061v1
- Date: Tue, 19 Jul 2022 04:22:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-20 13:14:35.302314
- Title: A-SFS: Semi-supervised Feature Selection based on Multi-task
Self-supervision
- Title(参考訳): A-SFS:マルチタスク自己監督に基づく半教師付き特徴選択
- Authors: Zhifeng Qiu, Wanxin Zeng, Dahua Liao, Ning Gui
- Abstract要約: 機能選択問題に深層学習に基づく自己教師機構を導入する。
バッチベースの特徴選択パターンに従って特徴量を生成するために、バッチアテンション機構が設計されている。
実験の結果,ほとんどのデータセットにおいてA-SFSが最も精度が高いことがわかった。
- 参考スコア(独自算出の注目度): 1.3190581566723918
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Feature selection is an important process in machine learning. It builds an
interpretable and robust model by selecting the features that contribute the
most to the prediction target. However, most mature feature selection
algorithms, including supervised and semi-supervised, fail to fully exploit the
complex potential structure between features. We believe that these structures
are very important for the feature selection process, especially when labels
are lacking and data is noisy.
To this end, we innovatively introduce a deep learning-based self-supervised
mechanism into feature selection problems, namely batch-Attention-based
Self-supervision Feature Selection(A-SFS). Firstly, a multi-task
self-supervised autoencoder is designed to uncover the hidden structure among
features with the support of two pretext tasks. Guided by the integrated
information from the multi-self-supervised learning model, a batch-attention
mechanism is designed to generate feature weights according to batch-based
feature selection patterns to alleviate the impacts introduced by a handful of
noisy data. This method is compared to 14 major strong benchmarks, including
LightGBM and XGBoost. Experimental results show that A-SFS achieves the highest
accuracy in most datasets. Furthermore, this design significantly reduces the
reliance on labels, with only 1/10 labeled data needed to achieve the same
performance as those state of art baselines. Results show that A-SFS is also
most robust to the noisy and missing data.
- Abstract(参考訳): 特徴選択は機械学習において重要なプロセスである。
予測対象に最も貢献する機能を選択することで、解釈可能で堅牢なモデルを構築する。
しかし、教師付きおよび半教師付きを含むほとんどの成熟した特徴選択アルゴリズムは、機能間の複雑な潜在構造を完全に活用することができない。
これらの構造は、特にラベルが欠如し、データが騒がしい場合に、機能選択プロセスにおいて非常に重要であると考えています。
そこで本研究では,バッチアテンションに基づく自己監督機能選択(A-SFS)という,ディープラーニングに基づく自己教師機構を革新的に導入する。
まず、マルチタスクの自己教師付きオートエンコーダは、2つのプリテキストタスクをサポートし、機能間の隠れた構造を明らかにするように設計されている。
マルチ教師付き学習モデルからの総合的な情報に導かれるバッチアテンション機構は、一握りのノイズデータによってもたらされる影響を軽減するために、バッチベースの特徴選択パターンに従って特徴重みを生成するように設計されている。
この方法は、LightGBMやXGBoostを含む14の強力なベンチマークと比較される。
実験の結果,ほとんどのデータセットにおいてA-SFSが最も精度が高いことがわかった。
さらに、この設計はラベルへの依存を著しく減らし、1/10のラベル付きデータだけで、アートベースラインと同じパフォーマンスを達成することができる。
その結果、A-SFSはノイズや欠落データに対して最も堅牢であることがわかった。
関連論文リスト
- Adapting Segment Anything Model for Unseen Object Instance Segmentation [70.60171342436092]
Unseen Object Instance(UOIS)は、非構造環境で動作する自律ロボットにとって不可欠である。
UOISタスクのためのデータ効率のよいソリューションであるUOIS-SAMを提案する。
UOIS-SAMは、(i)HeatmapベースのPrompt Generator(HPG)と(ii)SAMのマスクデコーダに適応する階層識別ネットワーク(HDNet)の2つの重要なコンポーネントを統合する。
論文 参考訳(メタデータ) (2024-09-23T19:05:50Z) - LLM-Select: Feature Selection with Large Language Models [64.5099482021597]
大規模言語モデル(LLM)は、データサイエンスの標準ツールに匹敵するパフォーマンスで、最も予測可能な機能を選択することができる。
以上の結果から,LSMはトレーニングに最適な機能を選択するだけでなく,そもそもどの機能を収集すべきかを判断する上でも有用である可能性が示唆された。
論文 参考訳(メタデータ) (2024-07-02T22:23:40Z) - Exploiting Modality-Specific Features For Multi-Modal Manipulation
Detection And Grounding [54.49214267905562]
マルチモーダルな操作検出とグラウンド処理のためのトランスフォーマーベースのフレームワークを構築する。
本フレームワークは,マルチモーダルアライメントの能力を維持しながら,モダリティ特有の特徴を同時に探求する。
本稿では,グローバルな文脈的キューを各モーダル内に適応的に集約する暗黙的操作クエリ(IMQ)を提案する。
論文 参考訳(メタデータ) (2023-09-22T06:55:41Z) - MvFS: Multi-view Feature Selection for Recommender System [7.0190343591422115]
本稿では,各インスタンスのより効率的な情報機能を選択するMulti-view Feature Selection (MvFS)を提案する。
MvFSは複数のサブネットワークで構成されるマルチビューネットワークを採用しており、それぞれがデータの一部の特徴的重要性を計測することを学ぶ。
MvFSは、各分野に独立して適用される効果的な重要スコアモデリング戦略を採用している。
論文 参考訳(メタデータ) (2023-09-05T09:06:34Z) - FedSDG-FS: Efficient and Secure Feature Selection for Vertical Federated
Learning [21.79965380400454]
Vertical Learning(VFL)は、複数のデータオーナに対して、大きな重複するデータサンプルセットに関する機能のサブセットをそれぞれ保持して、有用なグローバルモデルを共同でトレーニングすることを可能にする。
VFLのために設計された既存のFSは、ノイズの多い特徴の数について事前知識を仮定するか、有用な特徴の訓練後のしきい値について事前知識を仮定する。
本稿では,FedSDG-FS(Federated Dual-Gate Based Feature Selection)アプローチを提案する。
論文 参考訳(メタデータ) (2023-02-21T03:09:45Z) - Compactness Score: A Fast Filter Method for Unsupervised Feature
Selection [66.84571085643928]
本稿では,CSUFS (Compactness Score) と呼ばれる高速な教師なし特徴選択手法を提案する。
提案アルゴリズムは既存のアルゴリズムよりも正確で効率的である。
論文 参考訳(メタデータ) (2022-01-31T13:01:37Z) - A User-Guided Bayesian Framework for Ensemble Feature Selection in Life
Science Applications (UBayFS) [0.0]
本稿では,ベイズ統計フレームワークに組み込んだアンサンブル特徴選択手法UBayFSを提案する。
提案手法は,データとドメイン知識の2つの情報源を考慮し,特徴選択のプロセスを強化する。
標準的な機能セレクタとの比較では、UBayFSは競争力のあるパフォーマンスを実現し、ドメイン知識を組み込むための柔軟性を提供する。
論文 参考訳(メタデータ) (2021-04-30T06:51:33Z) - Feature Selection for Huge Data via Minipatch Learning [0.0]
安定ミニパッチ選択(STAMPS)と適応STAMPSを提案する。
STAMPSは、データの観測と特徴の両方の小さな(適応性の高い)ランダムなサブセットに基づいて訓練された基本特徴セレクタの選択イベントのアンサンブルを構築するメタアルゴリズムである。
われわれのアプローチは一般的であり、様々な機能選択戦略や機械学習技術に応用できる。
論文 参考訳(メタデータ) (2020-10-16T17:41:08Z) - A Trainable Optimal Transport Embedding for Feature Aggregation and its
Relationship to Attention [96.77554122595578]
固定サイズのパラメータ化表現を導入し、与えられた入力セットから、そのセットとトレーニング可能な参照の間の最適な輸送計画に従って要素を埋め込み、集約する。
我々のアプローチは大規模なデータセットにスケールし、参照のエンドツーエンドのトレーニングを可能にすると同時に、計算コストの少ない単純な教師なし学習メカニズムも提供する。
論文 参考訳(メタデータ) (2020-06-22T08:35:58Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z) - Feature Selection Library (MATLAB Toolbox) [1.2058143465239939]
Feature Selection Library (FSLib) には、FSアルゴリズムの包括的なスイートが導入されている。
FSLibは次元の呪いに対処し、計算負荷を減らし、モデルの一般化性を高める。
FSLibは、重要な特徴を明らかにし、パターン認識と理解を支援することで、データの解釈可能性に貢献している。
論文 参考訳(メタデータ) (2016-07-05T16:50:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。