論文の概要: Sampling-guided exploration of active feature selection policies
- arxiv url: http://arxiv.org/abs/2603.15110v1
- Date: Mon, 16 Mar 2026 11:07:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 18:28:58.08638
- Title: Sampling-guided exploration of active feature selection policies
- Title(参考訳): サンプリング誘導によるアクティブな特徴選択ポリシーの探索
- Authors: Gabriel Bernardino, Anders Jonsson, Patrick Clarysse, Nicolas Duchateau,
- Abstract要約: 本稿では,最も優れた情報/コスト比に到達するために,次に獲得すべきモダリティを推薦する強化学習手法を提案する。
提案手法を,56の特徴と4500のサンプルを持つ4つのバイナリ分類データセットで検証した。
精度とポリシーの複雑さの両面から,最先端手法よりも優れた性能を得た。
- 参考スコア(独自算出の注目度): 5.605625746831634
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Determining the most appropriate features for machine learning predictive models is challenging regarding performance and feature acquisition costs. In particular, global feature choice is limited given that some features will only benefit a subset of instances. In previous work, we proposed a reinforcement learning approach to sequentially recommend which modality to acquire next to reach the best information/cost ratio, based on the instance-specific information already acquired. We formulated the problem as a Markov Decision Process where the state's dimensionality changes during the episode, avoiding data imputation, contrary to existing works. However, this only allowed processing a small number of features, as all possible combinations of features were considered. Here, we address these limitations with two contributions: 1) we expand our framework to larger datasets with a heuristic-based strategy that focuses on the most promising feature combinations, and 2) we introduce a post-fit regularisation strategy that reduces the number of different feature combinations, leading to compact sequences of decisions. We tested our method on four binary classification datasets (one involving high-dimensional variables), the largest of which had 56 features and 4500 samples. We obtained better performance than state-of-the-art methods, both in terms of accuracy and policy complexity.
- Abstract(参考訳): 機械学習予測モデルの最も適切な機能を決定することは、パフォーマンスと機能獲得コストに関して難しい。
特にグローバルな機能選択は,いくつかの機能がインスタンスのサブセットにのみメリットがあるため,限定的だ。
提案手法は,既に取得済みのインスタンス固有情報に基づいて,次々に獲得すべきモータリティを最良情報/コスト比に達するように推奨する強化学習手法である。
我々は,この問題を,既存の作品とは対照的に,そのエピソード中に状態の次元が変化するマルコフ決定プロセスとして定式化した。
しかし、これは少数の機能しか処理できず、全ての機能の組み合わせが考慮された。
ここでは、これらの制限に2つのコントリビューションで対処する。
1)我々のフレームワークを、最も有望な機能の組み合わせに焦点を当てたヒューリスティックな戦略で、より大きなデータセットに拡張する。
2) 異なる特徴の組み合わせの数を減らし, 決定のコンパクトな順序を導出するポストフィット正規化戦略を導入する。
提案手法を4つのバイナリ分類データセット(高次元変数を含むもの)で検証した。
精度とポリシーの複雑さの両面から,最先端手法よりも優れた性能を得た。
関連論文リスト
- Stochastic Encodings for Active Feature Acquisition [100.47043816019888]
Active Feature Acquisitionは、インスタンスワイドでシーケンシャルな意思決定問題である。
目的は、テストインスタンスごとに独立して、現在の観測に基づいて計測する機能を動的に選択することである。
一般的なアプローチは強化学習(Reinforcement Learning)であり、トレーニングの困難を経験する。
我々は、教師付きで訓練された潜在変数モデルを導入し、潜在空間における観測不能な実現の可能性の多くにまたがる特徴を推論することで獲得する。
論文 参考訳(メタデータ) (2025-08-03T23:48:46Z) - Permutation-based multi-objective evolutionary feature selection for high-dimensional data [43.18726655647964]
本稿では,高次元データを対象とした新しい特徴選択手法を提案する。
提案手法は多目的進化アルゴリズムを用いて候補特徴部分集合を探索する。
提案手法の有効性を,24個の高次元データセットを用いて検証した。
論文 参考訳(メタデータ) (2025-01-24T08:11:28Z) - An incremental preference elicitation-based approach to learning potentially non-monotonic preferences in multi-criteria sorting [53.36437745983783]
まず最適化モデルを構築し,非単調な選好をモデル化する。
本稿では,情報量測定手法と質問選択戦略を考案し,各イテレーションにおいて最も情報に富む選択肢を特定する。
2つのインクリメンタルな選好に基づくアルゴリズムは、潜在的に単調な選好を学習するために開発された。
論文 参考訳(メタデータ) (2024-09-04T14:36:20Z) - Multi-objective Binary Coordinate Search for Feature Selection [0.24578723416255746]
大規模特徴選択問題の解法として,二元多目的座標探索(MOCS)アルゴリズムを提案する。
その結果,実世界の5つの大規模データセットにおいて,NSGA-IIよりも提案手法が優れていることが示唆された。
論文 参考訳(メタデータ) (2024-02-20T00:50:26Z) - Experiment Planning with Function Approximation [49.50254688629728]
本研究では,文脈的帯域幅問題における関数近似を用いた実験計画の問題点について検討する。
本稿では,関数近似に適合する2つの実験計画戦略を提案する。
そこで, 均一サンプリング器は, 動作数が少ない設定において, 競合最適性を達成できることを示す。
論文 参考訳(メタデータ) (2024-01-10T14:40:23Z) - Causal Feature Selection via Transfer Entropy [59.999594949050596]
因果発見は、観察データによる特徴間の因果関係を特定することを目的としている。
本稿では,前向きと後向きの機能選択に依存する新たな因果的特徴選択手法を提案する。
精度および有限サンプルの場合の回帰誤差と分類誤差について理論的に保証する。
論文 参考訳(メタデータ) (2023-10-17T08:04:45Z) - Large-scale Fully-Unsupervised Re-Identification [78.47108158030213]
大規模未ラベルデータから学ぶための2つの戦略を提案する。
第1の戦略は、近傍関係に違反することなく、それぞれのデータセットサイズを減らすために、局所的な近傍サンプリングを行う。
第2の戦略は、低時間上限の複雑さを持ち、メモリの複雑さを O(n2) から O(kn) に k n で還元する新しい再帰的手法を利用する。
論文 参考訳(メタデータ) (2023-07-26T16:19:19Z) - Estimating Conditional Mutual Information for Dynamic Feature Selection [14.706269510726356]
動的な特徴選択は、機能獲得コストを削減し、モデルの予測に透明性を提供する、有望なパラダイムである。
ここでは、情報理論の観点から、応答変数との相互情報に基づいて特徴を優先順位付けする。
提案手法は, 様々なデータセットにわたる最近の手法に対して一貫した利得を提供する。
論文 参考訳(メタデータ) (2023-06-05T23:03:03Z) - Top-$k$ Regularization for Supervised Feature Selection [11.927046591097623]
教師付き特徴選択のための新しい,シンプルで効果的な正規化手法である Top-k$ regularization を導入する。
上位$kの正規化は、教師付き特徴選択に有効で安定であることを示す。
論文 参考訳(メタデータ) (2021-06-04T01:12:47Z) - Feature Selection for Huge Data via Minipatch Learning [0.0]
安定ミニパッチ選択(STAMPS)と適応STAMPSを提案する。
STAMPSは、データの観測と特徴の両方の小さな(適応性の高い)ランダムなサブセットに基づいて訓練された基本特徴セレクタの選択イベントのアンサンブルを構築するメタアルゴリズムである。
われわれのアプローチは一般的であり、様々な機能選択戦略や機械学習技術に応用できる。
論文 参考訳(メタデータ) (2020-10-16T17:41:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。