論文の概要: Feature Selection Methods for Cost-Constrained Classification in Random
Forests
- arxiv url: http://arxiv.org/abs/2008.06298v2
- Date: Mon, 17 Aug 2020 04:25:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-30 16:54:21.416164
- Title: Feature Selection Methods for Cost-Constrained Classification in Random
Forests
- Title(参考訳): ランダム林におけるコスト制約型分類の特徴選択手法
- Authors: Rudolf Jagdhuber, Michel Lang and J\"org Rahnenf\"uhrer
- Abstract要約: コストに敏感な特徴選択は、機能選択の問題であり、モデルに含めるための個々のコストを上昇させる。
ランダムフォレスト(Random Forests)は、機能選択において特に困難な問題を定義している。
小木構造から特徴を選択する新しい高速多変量特徴選択法であるShallow Tree Selectionを提案する。
- 参考スコア(独自算出の注目度): 3.4806267677524896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cost-sensitive feature selection describes a feature selection problem, where
features raise individual costs for inclusion in a model. These costs allow to
incorporate disfavored aspects of features, e.g. failure rates of as measuring
device, or patient harm, in the model selection process. Random Forests define
a particularly challenging problem for feature selection, as features are
generally entangled in an ensemble of multiple trees, which makes a post hoc
removal of features infeasible. Feature selection methods therefore often
either focus on simple pre-filtering methods, or require many Random Forest
evaluations along their optimization path, which drastically increases the
computational complexity. To solve both issues, we propose Shallow Tree
Selection, a novel fast and multivariate feature selection method that selects
features from small tree structures. Additionally, we also adapt three standard
feature selection algorithms for cost-sensitive learning by introducing a
hyperparameter-controlled benefit-cost ratio criterion (BCR) for each method.
In an extensive simulation study, we assess this criterion, and compare the
proposed methods to multiple performance-based baseline alternatives on four
artificial data settings and seven real-world data settings. We show that all
methods using a hyperparameterized BCR criterion outperform the baseline
alternatives. In a direct comparison between the proposed methods, each method
indicates strengths in certain settings, but no one-fits-all solution exists.
On a global average, we could identify preferable choices among our BCR based
methods. Nevertheless, we conclude that a practical analysis should never rely
on a single method only, but always compare different approaches to obtain the
best results.
- Abstract(参考訳): コストに敏感な特徴選択は、機能選択の問題であり、モデルに含める個々のコストを上昇させる。
これらのコストは、例えば測定装置としての失敗率や患者の危害といった不利な特徴をモデル選択プロセスに組み込むことができる。
ランダムフォレストは、特徴が一般に複数の木々のアンサンブルに絡み合っているため、特徴の選択において特に難しい問題を定義している。
したがって、特徴選択法は単純な事前フィルタリング法にフォーカスするか、あるいは最適化経路に沿って多くのランダムフォレスト評価が必要となり、計算の複雑さが劇的に増大する。
両問題を解決するために,小木構造から特徴を抽出する新しい高速多変量特徴選択法であるShallow Tree Selectionを提案する。
さらに,各手法に高パラメータ制御利得率基準(bcr)を導入することで,コスト感応学習のための3つの標準特徴選択アルゴリズムを適用した。
シミュレーション実験により,提案手法を4つの人工データ設定と7つの実世界のデータ設定に基づいて,複数の性能ベースライン代替品と比較した。
高パラメータ化BCR基準を用いたすべての手法がベースラインの代替よりも優れていることを示す。
提案手法の直接比較では,各手法は特定の条件下での強度を示すが,一様解は存在しない。
グローバル平均では、BCRベースの方法の中から好適な選択を特定できる。
それにもかかわらず、実用分析は単一のメソッドのみに頼るべきではないが、最良の結果を得るために常に異なるアプローチを比較するべきであると結論づける。
関連論文リスト
- SKADA-Bench: Benchmarking Unsupervised Domain Adaptation Methods with Realistic Validation [55.87169702896249]
Unsupervised Domain Adaptation (DA) は、ラベル付きソースドメインでトレーニングされたモデルを適用して、ラベルなしのターゲットドメインでデータ分散シフトをうまく実行する。
本稿では,DA手法の評価と,再重み付け,マッピング,部分空間アライメントなど,既存の浅層アルゴリズムの公平な評価を行うフレームワークを提案する。
本ベンチマークでは,現実的な検証の重要性を強調し,現実的なアプリケーションに対する実践的なガイダンスを提供する。
論文 参考訳(メタデータ) (2024-07-16T12:52:29Z) - Adaptive Preference Scaling for Reinforcement Learning with Human Feedback [103.36048042664768]
人間からのフィードバックからの強化学習(RLHF)は、AIシステムと人間の価値を合わせるための一般的なアプローチである。
本稿では,分散ロバスト最適化(DRO)に基づく適応的優先損失を提案する。
提案手法は多用途であり,様々な選好最適化フレームワークに容易に適用可能である。
論文 参考訳(メタデータ) (2024-06-04T20:33:22Z) - Feature Selection as Deep Sequential Generative Learning [50.00973409680637]
本研究では, 逐次再構成, 変分, 性能評価器の損失を伴って, 深部変分変圧器モデルを構築した。
提案モデルでは,特徴選択の知識を抽出し,連続的な埋め込み空間を学習し,特徴選択決定シーケンスをユーティリティスコアに関連付けられた埋め込みベクトルにマッピングする。
論文 参考訳(メタデータ) (2024-03-06T16:31:56Z) - Towards Free Data Selection with General-Purpose Models [71.92151210413374]
望ましいデータ選択アルゴリズムは、限られたアノテーション予算の有用性を最大化するために、最も情報性の高いサンプルを効率的に選択することができる。
アクティブな学習手法で表現された現在のアプローチは、通常、時間を要するモデルのトレーニングとバッチデータ選択を繰り返し繰り返す、面倒なパイプラインに従う。
FreeSelは重いバッチ選択プロセスをバイパスし、効率を大幅に改善し、既存のアクティブラーニングメソッドよりも530倍高速である。
論文 参考訳(メタデータ) (2023-09-29T15:50:14Z) - Finding Optimal Diverse Feature Sets with Alternative Feature Selection [0.0]
代替機能の選択を導入し、最適化問題として定式化する。
特に,制約によって代替品を定義し,利用者が代替品の数や相違を制御できるようにする。
本研究では,一定要素近似が一定の条件下で存在することを示し,対応する探索法を提案する。
論文 参考訳(メタデータ) (2023-07-21T14:23:41Z) - Parallel feature selection based on the trace ratio criterion [4.30274561163157]
本研究は,PFSTを用いた並列特徴選択という,新しい並列特徴選択手法を提案する。
提案手法は,Fisher's Discriminant Analysisで用いられるクラス分離性の尺度であるトレース基準を用いて特徴的有用性を評価する。
実験により,本手法は,比較対象の他の手法による時間的差のごく一部で,少数の特徴セットを生成できることが確認された。
論文 参考訳(メタデータ) (2022-03-03T10:50:33Z) - Compactness Score: A Fast Filter Method for Unsupervised Feature
Selection [66.84571085643928]
本稿では,CSUFS (Compactness Score) と呼ばれる高速な教師なし特徴選択手法を提案する。
提案アルゴリズムは既存のアルゴリズムよりも正確で効率的である。
論文 参考訳(メタデータ) (2022-01-31T13:01:37Z) - A concise method for feature selection via normalized frequencies [0.0]
本稿では,普遍的特徴選択のための簡潔な手法を提案する。
提案手法は, フィルタ法とラッパー法を融合して行う。
評価結果から,提案手法は,精度,精度,リコール,Fスコア,AUCの点で,いくつかの最先端技術に優れた性能を示した。
論文 参考訳(メタデータ) (2021-06-10T15:29:54Z) - Joint Adaptive Graph and Structured Sparsity Regularization for
Unsupervised Feature Selection [6.41804410246642]
本稿では,共同適応グラフと構造付き空間正規化unsupervised feature selection (JASFS)法を提案する。
最適な機能のサブセットがグループで選択され、選択された機能の数が自動的に決定される。
8つのベンチマーク実験の結果,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2020-10-09T08:17:04Z) - Stochastic Optimization Forests [60.523606291705214]
標準的なランダムな森林アルゴリズムのように予測精度を向上させるために分割するのではなく、分割を選択した木を栽培し、下流の意思決定品質を直接最適化することで、森林決定政策の訓練方法を示す。
概略分割基準は、各候補分割に対して正確に最適化された森林アルゴリズムに近い性能を保ちながら、100倍のランニング時間を短縮できることを示す。
論文 参考訳(メタデータ) (2020-08-17T16:56:06Z) - On-the-Fly Joint Feature Selection and Classification [16.84451472788859]
本稿では,共同で特徴選択と分類を行うためのフレームワークを提案する。
我々は、関連する最適化問題の最適解を導出し、その構造を解析する。
提案アルゴリズムの性能を複数の公開データセット上で評価する。
論文 参考訳(メタデータ) (2020-04-21T19:19:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。