論文の概要: Automated Supervised Feature Selection for Differentiated Patterns of
Care
- arxiv url: http://arxiv.org/abs/2111.03495v1
- Date: Fri, 5 Nov 2021 13:27:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-08 18:02:41.878575
- Title: Automated Supervised Feature Selection for Differentiated Patterns of
Care
- Title(参考訳): ケアの異なるパターンに対する自動監視特徴選択
- Authors: Catherine Wanjiru, William Ogallo, Girmaw Abebe Tadesse, Charles
Wachira, Isaiah Onando Mulang', Aisha Walcott-Bryant
- Abstract要約: パイプラインには、上位K機能を選択するためのフィルタ、ラッパー、埋め込みの3つのタイプの機能選択テクニックが含まれていた。
選択された特徴は, 既存の多次元サブセットスキャン(MDSS)において, 最も異常なサブセット, ほとんど異常なサブセット, 確率スコア, 測定結果が記録された。
- 参考スコア(独自算出の注目度): 5.3825788156200565
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An automated feature selection pipeline was developed using several
state-of-the-art feature selection techniques to select optimal features for
Differentiating Patterns of Care (DPOC). The pipeline included three types of
feature selection techniques; Filters, Wrappers and Embedded methods to select
the top K features. Five different datasets with binary dependent variables
were used and their different top K optimal features selected. The selected
features were tested in the existing multi-dimensional subset scanning (MDSS)
where the most anomalous subpopulations, most anomalous subsets, propensity
scores, and effect of measures were recorded to test their performance. This
performance was compared with four similar metrics gained after using all
covariates in the dataset in the MDSS pipeline. We found out that despite the
different feature selection techniques used, the data distribution is key to
note when determining the technique to use.
- Abstract(参考訳): DPOC(Disferiating Patterns of Care)に最適な特徴を選択するために,最新の特徴選択技術を用いて自動特徴選択パイプラインを開発した。
パイプラインには3種類の機能選択技術が含まれている。フィルタ、ラッパー、埋め込みメソッドでトップkの機能を選択する。
バイナリ依存変数を持つ5つの異なるデータセットを使用し、各トップKの最適な特徴を選択した。
選択された特徴は, 既存の多次元サブセットスキャン(MDSS)において, 最も異常なサブセット, ほとんど異常なサブセット, 確率スコア, 測定結果が記録された。
このパフォーマンスは、MDSSパイプラインのデータセット内のすべての共変量を使用して得た4つの類似メトリクスと比較された。
その結果,使用する特徴の選択手法が異なるにも関わらず,使用する技術を決定する際には,データ分布が重要となることがわかった。
関連論文リスト
- Unsupervised Feature Selection Algorithm Based on Dual Manifold Re-ranking [5.840228332438659]
本稿では,2次多様体再ランク付け(DMRR)に基づく教師なし特徴選択アルゴリズムを提案する。
異なる類似度行列は、サンプル間、サンプル間、特徴間、特徴間の多様体構造を記述するために構築される。
DMRRを3つの教師なし特徴選択アルゴリズムと2つの教師なし特徴選択後処理アルゴリズムと比較することにより、異なるサンプルの重要性情報と、より優れた特徴選択を実現するために、サンプルと特徴の二重関係が有用であることを確認した。
論文 参考訳(メタデータ) (2024-10-27T09:29:17Z) - Feature Selection as Deep Sequential Generative Learning [50.00973409680637]
本研究では, 逐次再構成, 変分, 性能評価器の損失を伴って, 深部変分変圧器モデルを構築した。
提案モデルでは,特徴選択の知識を抽出し,連続的な埋め込み空間を学習し,特徴選択決定シーケンスをユーティリティスコアに関連付けられた埋め込みベクトルにマッピングする。
論文 参考訳(メタデータ) (2024-03-06T16:31:56Z) - A Performance-Driven Benchmark for Feature Selection in Tabular Deep
Learning [131.2910403490434]
データサイエンティストは通常、データセットにできるだけ多くの機能を集め、既存の機能から新しい機能を設計する。
既存のタブ形式の特徴選択のためのベンチマークでは、古典的な下流モデル、おもちゃの合成データセット、あるいは下流のパフォーマンスに基づいて特徴セレクタを評価していない。
変換器を含む下流ニューラルネットワーク上で評価された課題のある特徴選択ベンチマークを構築した。
また,従来の特徴選択法よりも高い性能を有するニューラルネットワークのための,Lassoのインプット・グラディエント・ベース・アナログも提案する。
論文 参考訳(メタデータ) (2023-11-10T05:26:10Z) - Towards Free Data Selection with General-Purpose Models [71.92151210413374]
望ましいデータ選択アルゴリズムは、限られたアノテーション予算の有用性を最大化するために、最も情報性の高いサンプルを効率的に選択することができる。
アクティブな学習手法で表現された現在のアプローチは、通常、時間を要するモデルのトレーニングとバッチデータ選択を繰り返し繰り返す、面倒なパイプラインに従う。
FreeSelは重いバッチ選択プロセスをバイパスし、効率を大幅に改善し、既存のアクティブラーニングメソッドよりも530倍高速である。
論文 参考訳(メタデータ) (2023-09-29T15:50:14Z) - Model-free feature selection to facilitate automatic discovery of
divergent subgroups in tabular data [4.551615447454768]
本稿では,分散サブグループの自動発見を容易にするために,モデルフリーかつスパーシティベース自動特徴選択(SAFS)フレームワークを提案する。
2つの公開データセット(MIMIC-IIIとAllstate Claims)でSAFSを検証し、既存の6つの特徴選択手法と比較した。
論文 参考訳(メタデータ) (2022-03-08T20:42:56Z) - Compactness Score: A Fast Filter Method for Unsupervised Feature
Selection [66.84571085643928]
本稿では,CSUFS (Compactness Score) と呼ばれる高速な教師なし特徴選択手法を提案する。
提案アルゴリズムは既存のアルゴリズムよりも正確で効率的である。
論文 参考訳(メタデータ) (2022-01-31T13:01:37Z) - Correlation Based Feature Subset Selection for Multivariate Time-Series
Data [2.055949720959582]
時系列データのストリームの相関は、与えられたデータマイニングタスクには、機能のごく一部しか必要としないことを意味する。
単一特徴分類器出力の相関パターンに基づいて特徴部分選択を行う手法を提案する。
論文 参考訳(メタデータ) (2021-11-26T17:39:33Z) - A Supervised Feature Selection Method For Mixed-Type Data using
Density-based Feature Clustering [1.3048920509133808]
本稿では、密度ベース特徴クラスタリング(SFSDFC)を用いた教師付き特徴選択法を提案する。
SFSDFCは、新しい密度に基づくクラスタリング法を用いて、特徴空間を不連続な特徴クラスタの集合に分解する。
そして、これらの特徴クラスタから最小限の冗長性を持つ重要な特徴のサブセットを得るために、効果的な特徴選択戦略を採用する。
論文 参考訳(メタデータ) (2021-11-10T15:05:15Z) - Multivariate feature ranking of gene expression data [62.997667081978825]
ペアワイズ相関とペアワイズ整合性に基づく2つの新しい多変量特徴ランキング手法を提案する。
提案手法は, クラスタリング変動, チ・スクエアド, 相関, 情報ゲイン, ReliefF および Significance の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-03T17:19:53Z) - Supervised Feature Subset Selection and Feature Ranking for Multivariate
Time Series without Feature Extraction [78.84356269545157]
MTS分類のための教師付き特徴ランキングと特徴サブセット選択アルゴリズムを導入する。
MTSの既存の教師なし特徴選択アルゴリズムとは異なり、我々の手法は時系列から一次元特徴ベクトルを生成するために特徴抽出ステップを必要としない。
論文 参考訳(メタデータ) (2020-05-01T07:46:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。