論文の概要: Feature Selection using e-values
- arxiv url: http://arxiv.org/abs/2206.05391v1
- Date: Sat, 11 Jun 2022 01:34:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-14 15:02:33.548383
- Title: Feature Selection using e-values
- Title(参考訳): e値を用いた特徴選択
- Authors: Subhabrata Majumdar, Snigdhansu Chatterjee
- Abstract要約: 教師付きパラメトリックモデルの文脈でe値の概念を導入する。
一般的な条件下では、e-値の階数順序は、すべての本質的特徴を含むモデルと、そうでないものとを分離する。
データ深度と高速再サンプリングに基づくアルゴリズムを用いて,e値を用いた特徴選択手法を実装した。
- 参考スコア(独自算出の注目度): 4.3512163406552
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the context of supervised parametric models, we introduce the concept of
e-values. An e-value is a scalar quantity that represents the proximity of the
sampling distribution of parameter estimates in a model trained on a subset of
features to that of the model trained on all features (i.e. the full model).
Under general conditions, a rank ordering of e-values separates models that
contain all essential features from those that do not.
The e-values are applicable to a wide range of parametric models. We use data
depths and a fast resampling-based algorithm to implement a feature selection
procedure using e-values, providing consistency results. For a $p$-dimensional
feature space, this procedure requires fitting only the full model and
evaluating $p+1$ models, as opposed to the traditional requirement of fitting
and evaluating $2^p$ models. Through experiments across several model settings
and synthetic and real datasets, we establish that the e-values method as a
promising general alternative to existing model-specific methods of feature
selection.
- Abstract(参考訳): 教師付きパラメトリックモデルの文脈では、e値の概念を導入する。
e値(e-value)は、全ての特徴(すなわち、全モデル)で訓練されたモデルのサブセットで訓練されたモデルにおけるパラメータ推定のサンプリング分布の近さを表すスカラー量である。
一般的な条件の下では、e値のランク順序付けは、すべての必須特徴を含むモデルとそうでないものを分離する。
e-値は幅広いパラメトリックモデルに適用できる。
e-valuesを用いた特徴選択手順の実装には,データ深さと高速再サンプリングに基づくアルゴリズムを用いる。
次元的特徴空間では、従来の2^p$モデルへの適合と評価の要件とは対照的に、この手順はフルモデルのみを適合させ、$p+1$モデルを評価する必要がある。
いくつかのモデル設定と合成および実データを用いた実験により,e-values法が既存のモデル固有の特徴選択法に代わる有望な代替手段であることを示す。
関連論文リスト
- EMR-Merging: Tuning-Free High-Performance Model Merging [55.03509900949149]
Elect, Mask & Rescale-Merging (EMR-Merging) は既存のマージ手法と比較して優れた性能を示した。
EMR-Mergingはチューニング不要なので、データアベイラビリティや追加のトレーニングは必要ありません。
論文 参考訳(メタデータ) (2024-05-23T05:25:45Z) - REFRESH: Responsible and Efficient Feature Reselection Guided by SHAP Values [17.489279048199304]
REFRESHは、いくつかの新しいモデルをトレーニングすることなく、モデルパフォーマンスに望ましい追加の制約を達成できるように、機能を再選択する手法である。
REFRESHの基盤となるアルゴリズムは、SHAP値と相関解析を用いて、モデルをトレーニングすることなくモデルの予測を近似できる新しい手法である。
論文 参考訳(メタデータ) (2024-03-13T18:06:43Z) - Latent Semantic Consensus For Deterministic Geometric Model Fitting [109.44565542031384]
我々はLSC(Latent Semantic Consensus)と呼ばれる効果的な方法を提案する。
LSCは、モデルフィッティング問題をデータポイントとモデル仮説に基づく2つの潜在意味空間に定式化する。
LSCは、一般的な多構造モデルフィッティングのために、数ミリ秒以内で一貫した、信頼性の高いソリューションを提供することができる。
論文 参考訳(メタデータ) (2024-03-11T05:35:38Z) - Binary Feature Mask Optimization for Feature Selection [0.0]
本稿では,モデルの予測を考慮した特徴選択を行う新しいフレームワークを提案する。
我々のフレームワークは、選択過程における特徴を排除するために、新しい特徴マスキングアプローチを用いて革新する。
機械学習モデルとしてLightGBMとMulti-Layer Perceptronを用いた実生活データセットの性能改善を示す。
論文 参考訳(メタデータ) (2024-01-23T10:54:13Z) - The Interpolating Information Criterion for Overparameterized Models [49.283527214211446]
補間情報基準(Interpolating Information Criterion)は,モデル選択に事前選択を自然に取り入れたモデル品質の尺度であることを示す。
我々の新しい情報基準は、モデルの事前の誤特定、幾何学的およびスペクトル的特性を考慮に入れており、既知の経験的および理論的挙動と数値的に一致している。
論文 参考訳(メタデータ) (2023-07-15T12:09:54Z) - Evaluating Representations with Readout Model Switching [18.475866691786695]
本稿では,最小記述長(MDL)の原理を用いて評価指標を考案する。
我々は、読み出しモデルのためのハイブリッド離散および連続値モデル空間を設計し、それらの予測を組み合わせるために切替戦略を用いる。
提案手法はオンライン手法で効率的に計算でき,様々なアーキテクチャの事前学習された視覚エンコーダに対する結果を示す。
論文 参考訳(メタデータ) (2023-02-19T14:08:01Z) - PAMI: partition input and aggregate outputs for model interpretation [69.42924964776766]
本研究では、深層学習モデルが局所的な特徴を集約してモデル予測を行うという観察に基づいて、PAMIと呼ばれるシンプルで効果的な可視化フレームワークを提案する。
基本的な考え方は、入力の大多数を隠蔽し、元のモデル予測に対する保存された入力部の相対的な寄与として対応するモデル出力を使用することである。
複数のタスクに対する大規模な実験により,提案手法は,クラス固有の入力領域をより正確に見つけるために,既存の可視化手法よりも優れていることを確認した。
論文 参考訳(メタデータ) (2023-02-07T08:48:34Z) - Optimizing model-agnostic Random Subspace ensembles [5.680512932725364]
教師あり学習のためのモデルに依存しないアンサンブルアプローチを提案する。
提案手法は、ランダム部分空間アプローチのパラメトリックバージョンを用いてモデルのアンサンブルを学習することとを交互に行う。
シミュレーションおよび実世界のデータセット上で,予測と特徴ランキングの両面で,提案手法の優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-07T13:58:23Z) - How Faithful is your Synthetic Data? Sample-level Metrics for Evaluating
and Auditing Generative Models [95.8037674226622]
ドメインに依存しない方法で生成モデルの忠実度,多様性,一般化性能を特徴付ける3次元評価指標を提案する。
当社のメトリクスは、精度リコール分析により統計的発散測定を統合し、モデル忠実度と多様性のサンプルおよび分布レベルの診断を可能にします。
論文 参考訳(メタデータ) (2021-02-17T18:25:30Z) - Gaussian Function On Response Surface Estimation [12.35564140065216]
メタモデリング手法によるブラックボックス機械学習モデルの解釈(機能とサンプル)のための新しいフレームワークを提案する。
メタモデルは、興味のある領域のデータサンプルでコンピュータ実験を実行することによって、訓練された複雑なモデルによって生成されたデータから推定することができる。
論文 参考訳(メタデータ) (2021-01-04T04:47:00Z) - Robust Finite Mixture Regression for Heterogeneous Targets [70.19798470463378]
本稿では,サンプルクラスタの探索と,複数の不完全な混合型ターゲットを同時にモデル化するFMRモデルを提案する。
我々は、高次元の学習フレームワークの下で、無症状のオラクルのパフォーマンス境界をモデルに提供します。
その結果,我々のモデルは最先端の性能を達成できることがわかった。
論文 参考訳(メタデータ) (2020-10-12T03:27:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。