論文の概要: On the Limitation of Kernel Dependence Maximization for Feature Selection
- arxiv url: http://arxiv.org/abs/2406.06903v1
- Date: Tue, 11 Jun 2024 02:56:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-12 19:36:38.544913
- Title: On the Limitation of Kernel Dependence Maximization for Feature Selection
- Title(参考訳): 特徴選択のためのカーネル依存度最大化の限界について
- Authors: Keli Liu, Feng Ruan,
- Abstract要約: 文献からの一般的な提案は、非パラメトリック依存尺度としてヒルベルト・シュミット独立基準(HSIC)を使用している。
この根拠には欠陥があり、HSICによる機能選択は重要な機能を見逃す可能性があることを実証しています。
- 参考スコア(独自算出の注目度): 2.302001830524134
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A simple and intuitive method for feature selection consists of choosing the feature subset that maximizes a nonparametric measure of dependence between the response and the features. A popular proposal from the literature uses the Hilbert-Schmidt Independence Criterion (HSIC) as the nonparametric dependence measure. The rationale behind this approach to feature selection is that important features will exhibit a high dependence with the response and their inclusion in the set of selected features will increase the HSIC. Through counterexamples, we demonstrate that this rationale is flawed and that feature selection via HSIC maximization can miss critical features.
- Abstract(参考訳): 特徴選択のための単純で直感的な方法は、応答と特徴の間の依存性の非パラメトリック尺度を最大化する特徴サブセットを選択することである。
文献からの一般的な提案は、非パラメトリック依存尺度としてヒルベルト・シュミット独立基準(HSIC)を使用している。
機能選択に対するこのアプローチの背景にある理論的根拠は、重要な機能が応答に高い依存を示し、選択した機能のセットに含めることでHSICが増加することである。
反例を通して、この根拠に欠陥があり、HSICの最大化による特徴選択が重要な特徴を見逃すことを実証する。
関連論文リスト
- A Refreshed Similarity-based Upsampler for Direct High-Ratio Feature Upsampling [54.05517338122698]
本稿では,セマンティック・アウェアとディテール・アウェアの両方の観点から,明示的に制御可能なクエリキー機能アライメントを提案する。
また,モーザイクアーティファクトを緩和するのには単純だが有効であるHR特徴量に対して,きめ細かな近傍選択戦略を開発した。
提案するReSFUフレームワークは,異なるセグメンテーションアプリケーション上での良好な性能を一貫して達成する。
論文 参考訳(メタデータ) (2024-07-02T14:12:21Z) - Adaptive Preference Scaling for Reinforcement Learning with Human Feedback [103.36048042664768]
人間からのフィードバックからの強化学習(RLHF)は、AIシステムと人間の価値を合わせるための一般的なアプローチである。
本稿では,分散ロバスト最適化(DRO)に基づく適応的優先損失を提案する。
提案手法は多用途であり,様々な選好最適化フレームワークに容易に適用可能である。
論文 参考訳(メタデータ) (2024-06-04T20:33:22Z) - Knockoff-Guided Feature Selection via A Single Pre-trained Reinforced
Agent [44.84307718534031]
ノックオフ機能によってガイドされる特徴選択のための革新的なフレームワークを導入し、強化学習により最適化する。
探索プロセスの有効性を向上させるために,原特徴とそれに対応する擬似ラベルを事前訓練した深部Qネットワークが用いられている。
新しいepsilon-greedy戦略を使用して、擬似ラベルからの洞察を取り入れて、特徴選択プロセスをより効果的にする。
論文 参考訳(メタデータ) (2024-03-06T19:58:19Z) - Feature Selection as Deep Sequential Generative Learning [50.00973409680637]
本研究では, 逐次再構成, 変分, 性能評価器の損失を伴って, 深部変分変圧器モデルを構築した。
提案モデルでは,特徴選択の知識を抽出し,連続的な埋め込み空間を学習し,特徴選択決定シーケンスをユーティリティスコアに関連付けられた埋め込みベクトルにマッピングする。
論文 参考訳(メタデータ) (2024-03-06T16:31:56Z) - Feature Selection Based on Orthogonal Constraints and Polygon Area [10.587608254638667]
特徴選択の目的は、各特徴の重要性を評価することにより、認識タスクにおける特徴の最適なサブセットを選択することである。
本稿では,特徴ラベルを拡張した依存関係間の非単調線形探索を提案する。
実験結果から,本手法は識別依存を効果的にとらえるだけでなく,次元分類性能を低下させる従来の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-02-25T08:20:05Z) - RUMBoost: Gradient Boosted Random Utility Models [0.0]
RUMBoostモデルは、ランダムユーティリティモデル(RUM)の解釈可能性と行動的堅牢性と、ディープラーニング手法の一般化と予測能力を組み合わせる。
本稿では,RUMBoostモデルとMLおよびRandom Utilityベンチマークモデルとの比較を行い,ロンドンの選好モード選択データについて検討した。
論文 参考訳(メタデータ) (2024-01-22T13:54:26Z) - Causal Feature Selection via Transfer Entropy [59.999594949050596]
因果発見は、観察データによる特徴間の因果関係を特定することを目的としている。
本稿では,前向きと後向きの機能選択に依存する新たな因果的特徴選択手法を提案する。
精度および有限サンプルの場合の回帰誤差と分類誤差について理論的に保証する。
論文 参考訳(メタデータ) (2023-10-17T08:04:45Z) - Top-$k$ Regularization for Supervised Feature Selection [11.927046591097623]
教師付き特徴選択のための新しい,シンプルで効果的な正規化手法である Top-k$ regularization を導入する。
上位$kの正規化は、教師付き特徴選択に有効で安定であることを示す。
論文 参考訳(メタデータ) (2021-06-04T01:12:47Z) - Infinite Feature Selection: A Graph-based Feature Filtering Approach [78.63188057505012]
グラフ内の経路として特徴のサブセットを考慮したフィルタリング機能選択フレームワークを提案する。
無限に進むことで、選択プロセスの計算複雑性を制限できる。
Inf-FSはほとんどどんな状況でも、つまり、保持するフィーチャの数が優先順位に固定されているときに、より良く振る舞うことを示す。
論文 参考訳(メタデータ) (2020-06-15T07:20:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。