論文の概要: Powershap: A Power-full Shapley Feature Selection Method
- arxiv url: http://arxiv.org/abs/2206.08394v1
- Date: Thu, 16 Jun 2022 18:06:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-20 12:57:06.651978
- Title: Powershap: A Power-full Shapley Feature Selection Method
- Title(参考訳): Powershap: パワーフルシェープの特徴選択方法
- Authors: Jarne Verhaeghe, Jeroen Van Der Donckt, Femke Ongenae, Sofie Van
Hoecke
- Abstract要約: Powershapは、新しいラッパーの特徴選択方法である。
統計的仮説テストとパワー計算をShapley値と組み合わせて、迅速かつ直感的な特徴選択に活用する。
powerhap はプラグイン・アンド・プレイのオープンソース sklearn コンポーネントとして実装されている。
- 参考スコア(独自算出の注目度): 1.795703326329855
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Feature selection is a crucial step in developing robust and powerful machine
learning models. Feature selection techniques can be divided into two
categories: filter and wrapper methods. While wrapper methods commonly result
in strong predictive performances, they suffer from a large computational
complexity and therefore take a significant amount of time to complete,
especially when dealing with high-dimensional feature sets. Alternatively,
filter methods are considerably faster, but suffer from several other
disadvantages, such as (i) requiring a threshold value, (ii) not taking into
account intercorrelation between features, and (iii) ignoring feature
interactions with the model. To this end, we present powershap, a novel wrapper
feature selection method, which leverages statistical hypothesis testing and
power calculations in combination with Shapley values for quick and intuitive
feature selection. Powershap is built on the core assumption that an
informative feature will have a larger impact on the prediction compared to a
known random feature. Benchmarks and simulations show that powershap
outperforms other filter methods with predictive performances on par with
wrapper methods while being significantly faster, often even reaching half or a
third of the execution time. As such, powershap provides a competitive and
quick algorithm that can be used by various models in different domains.
Furthermore, powershap is implemented as a plug-and-play and open-source
sklearn component, enabling easy integration in conventional data science
pipelines. User experience is even further enhanced by also providing an
automatic mode that automatically tunes the hyper-parameters of the powershap
algorithm, allowing to use the algorithm without any configuration needed.
- Abstract(参考訳): 機能選択は、堅牢で強力な機械学習モデルを開発するための重要なステップである。
機能選択テクニックは、フィルタとラッパーメソッドの2つのカテゴリに分類できる。
ラッパー法は一般的に強い予測性能をもたらすが、計算の複雑さに悩まされ、特に高次元の特徴集合を扱う場合、かなりの時間を要する。
あるいは、フィルタメソッドは、かなり高速であるが、例えば、いくつかの欠点がある。
(i)しきい値を必要とする
(ii)特徴の相互関係を考慮していないこと、
(iii)モデルとの相互作用を無視すること。
そこで本研究では,統計的仮説テストと電力計算と,Shapley値とを併用して高速かつ直感的な特徴選択を行う,新しいラッパー特徴選択手法であるPowerhapを提案する。
Powershapは、情報的特徴が既知のランダムな特徴よりも予測に大きな影響を与えるというコア仮定に基づいて構築されている。
ベンチマークとシミュレーションにより、Powerhapはラッパーメソッドと同等の予測性能で他のフィルタメソッドよりも高速で、実行時間の半~3分の1に達することが示されている。
そのため Powerhap は,さまざまなドメインのさまざまなモデルで使用可能な,競争的かつ迅速なアルゴリズムを提供する。
さらにpowershapは、プラグアンドプレイおよびオープンソースのsklearnコンポーネントとして実装されており、従来のデータサイエンスパイプラインへの統合が容易である。
さらにユーザエクスペリエンスは、Powerhapアルゴリズムのハイパーパラメータを自動的にチューニングする自動モードを提供することによって、さらに強化されている。
関連論文リスト
- Cumulative Hazard Function Based Efficient Multivariate Temporal Point Process Learning [0.0]
本稿では、ニューラルネットワークを用いてフレキシブルだが適切に定義されたCHFをモデル化する。
提案手法は,データフィッティングおよびイベント予測タスクにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2024-04-21T13:51:31Z) - Tuning Pre-trained Model via Moment Probing [62.445281364055795]
本稿では,LP の可能性を探るため,新しい Moment Probing (MP) 法を提案する。
MPは、最終特徴の平均に基づいて線形分類ヘッドを実行する。
当社のMPはLPを著しく上回り、トレーニングコストの低い相手と競争しています。
論文 参考訳(メタデータ) (2023-07-21T04:15:02Z) - Efficient Model-Free Exploration in Low-Rank MDPs [76.87340323826945]
低ランクマルコフ決定プロセスは、関数近似を持つRLに対して単純だが表現力のあるフレームワークを提供する。
既存のアルゴリズムは、(1)計算的に抽出可能であるか、または(2)制限的な統計的仮定に依存している。
提案手法は,低ランクMPPの探索のための最初の実証可能なサンプル効率アルゴリズムである。
論文 参考訳(メタデータ) (2023-07-08T15:41:48Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Compactness Score: A Fast Filter Method for Unsupervised Feature
Selection [66.84571085643928]
本稿では,CSUFS (Compactness Score) と呼ばれる高速な教師なし特徴選択手法を提案する。
提案アルゴリズムは既存のアルゴリズムよりも正確で効率的である。
論文 参考訳(メタデータ) (2022-01-31T13:01:37Z) - Fast Variational AutoEncoder with Inverted Multi-Index for Collaborative
Filtering [59.349057602266]
変分オートエンコーダ (VAE) は, 協調フィルタリングの非線形手法として拡張されている。
内積に基づくソフトマックス確率を逆多重インデックスに基づいて分解する。
FastVAEはサンプリング品質と効率の両面で最先端のベースラインを上回っます。
論文 参考訳(メタデータ) (2021-09-13T08:31:59Z) - A concise method for feature selection via normalized frequencies [0.0]
本稿では,普遍的特徴選択のための簡潔な手法を提案する。
提案手法は, フィルタ法とラッパー法を融合して行う。
評価結果から,提案手法は,精度,精度,リコール,Fスコア,AUCの点で,いくつかの最先端技術に優れた性能を示した。
論文 参考訳(メタデータ) (2021-06-10T15:29:54Z) - Quick and Robust Feature Selection: the Strength of Energy-efficient
Sparse Training for Autoencoders [4.561081324313315]
データセットの最も重要な属性を識別する機能選択は、この問題の解決策として導入されている。
既存の特徴選択法のほとんどは、計算的に非効率である。
本稿では,教師なし特徴選択のための新しいフレキシブルな手法を提案する。
論文 参考訳(メタデータ) (2020-12-01T15:05:15Z) - Self Normalizing Flows [65.73510214694987]
本稿では,各層における学習された近似逆数により,勾配の高価な項を置き換えることで,フローの正規化を訓練するための柔軟なフレームワークを提案する。
これにより、各レイヤの正確な更新の計算複雑性が$mathcalO(D3)$から$mathcalO(D2)$に削減される。
実験により,これらのモデルは非常に安定であり,正確な勾配値と類似したデータ可能性値に最適化可能であることが示された。
論文 参考訳(メタデータ) (2020-11-14T09:51:51Z) - Feature Selection for Huge Data via Minipatch Learning [0.0]
安定ミニパッチ選択(STAMPS)と適応STAMPSを提案する。
STAMPSは、データの観測と特徴の両方の小さな(適応性の高い)ランダムなサブセットに基づいて訓練された基本特徴セレクタの選択イベントのアンサンブルを構築するメタアルゴリズムである。
われわれのアプローチは一般的であり、様々な機能選択戦略や機械学習技術に応用できる。
論文 参考訳(メタデータ) (2020-10-16T17:41:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。