論文の概要: Feature Selection with Distance Correlation
- arxiv url: http://arxiv.org/abs/2212.00046v1
- Date: Wed, 30 Nov 2022 19:00:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 17:51:14.765765
- Title: Feature Selection with Distance Correlation
- Title(参考訳): 距離相関を考慮した特徴選択
- Authors: Ranit Das, Gregor Kasieczka and David Shih
- Abstract要約: 距離相関に基づく特徴選択法(DisCo)を提案する。
7000以上のエネルギーフローの集合から特徴を抽出するために本手法を用いることで,より深いアーキテクチャの性能に適合できることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Choosing which properties of the data to use as input to multivariate
decision algorithms -- a.k.a. feature selection -- is an important step in
solving any problem with machine learning. While there is a clear trend towards
training sophisticated deep networks on large numbers of relatively unprocessed
inputs (so-called automated feature engineering), for many tasks in physics,
sets of theoretically well-motivated and well-understood features already
exist. Working with such features can bring many benefits, including greater
interpretability, reduced training and run time, and enhanced stability and
robustness. We develop a new feature selection method based on Distance
Correlation (DisCo), and demonstrate its effectiveness on the tasks of boosted
top- and $W$-tagging. Using our method to select features from a set of over
7,000 energy flow polynomials, we show that we can match the performance of
much deeper architectures, by using only ten features and two
orders-of-magnitude fewer model parameters.
- Abstract(参考訳): 特徴選択と呼ばれる多変量決定アルゴリズムの入力として使用するデータのプロパティを選択することは、機械学習で問題を解決するための重要なステップである。
比較的未処理な入力(いわゆる自動特徴工学)で高度なディープ・ネットワークを訓練する傾向は明らかであるが、物理学の多くのタスクでは、理論上はよく動機付けられ、よく理解された特徴がすでに存在している。
このような機能の開発には、解釈性の向上、トレーニングと実行時間の削減、安定性と堅牢性の向上など、多くのメリットがある。
本研究では,距離相関(disco)に基づく新しい特徴選択法を開発し,その効果をトップタグとw$タグで示す。
7,000以上のエネルギーフロー多項式の組から特徴を選択する手法を用いて,10個の特徴と2つの桁のモデルパラメータを用いることで,より深いアーキテクチャの性能に適合することを示す。
関連論文リスト
- A Contrast Based Feature Selection Algorithm for High-dimensional Data
set in Machine Learning [9.596923373834093]
本稿では,異なるクラス間で示される相違点に基づいて識別的特徴を抽出する新しいフィルタ特徴選択手法であるContrastFSを提案する。
提案手法の有効性と有効性について検証し,提案手法が無視可能な計算で良好に動作することを示す。
論文 参考訳(メタデータ) (2024-01-15T05:32:35Z) - A Performance-Driven Benchmark for Feature Selection in Tabular Deep
Learning [131.2910403490434]
データサイエンティストは通常、データセットにできるだけ多くの機能を集め、既存の機能から新しい機能を設計する。
既存のタブ形式の特徴選択のためのベンチマークでは、古典的な下流モデル、おもちゃの合成データセット、あるいは下流のパフォーマンスに基づいて特徴セレクタを評価していない。
変換器を含む下流ニューラルネットワーク上で評価された課題のある特徴選択ベンチマークを構築した。
また,従来の特徴選択法よりも高い性能を有するニューラルネットワークのための,Lassoのインプット・グラディエント・ベース・アナログも提案する。
論文 参考訳(メタデータ) (2023-11-10T05:26:10Z) - Offline Reinforcement Learning with Differentiable Function
Approximation is Provably Efficient [65.08966446962845]
歴史的データを用いて意思決定戦略を最適化することを目的としたオフライン強化学習は、現実の応用に広く適用されている。
微分関数クラス近似(DFA)を用いたオフライン強化学習の検討から一歩踏み出した。
最も重要なことは、悲観的な適合Q-ラーニングアルゴリズムを解析することにより、オフライン微分関数近似が有効であることを示すことである。
論文 参考訳(メタデータ) (2022-10-03T07:59:42Z) - Deep Feature Selection Using a Novel Complementary Feature Mask [5.904240881373805]
重要度が低い機能を活用することで、機能選択に対処します。
本稿では,新しい補完機能マスクに基づく特徴選択フレームワークを提案する。
提案手法は汎用的であり,既存のディープラーニングに基づく特徴選択手法に容易に組み込むことができる。
論文 参考訳(メタデータ) (2022-09-25T18:03:30Z) - Compactness Score: A Fast Filter Method for Unsupervised Feature
Selection [66.84571085643928]
本稿では,CSUFS (Compactness Score) と呼ばれる高速な教師なし特徴選択手法を提案する。
提案アルゴリズムは既存のアルゴリズムよりも正確で効率的である。
論文 参考訳(メタデータ) (2022-01-31T13:01:37Z) - Efficient Feature Transformations for Discriminative and Generative
Continual Learning [98.10425163678082]
継続的学習のための簡易タスク特化機能マップ変換戦略を提案する。
これらは新しいタスクを学習するための強力な柔軟性を提供し、ベースアーキテクチャに最小パラメータを追加することで実現される。
本手法の有効性と効率を,判別(cifar-100およびimagenet-1k)および生成的タスクの一連の実験を用いて実証する。
論文 参考訳(メタデータ) (2021-03-25T01:48:14Z) - Towards Explainable Exploratory Landscape Analysis: Extreme Feature
Selection for Classifying BBOB Functions [4.932130498861987]
驚くほど少数の機能(多くの場合4つ未満)が、98%の精度を達成するのに十分であることを示している。
分類精度は、いくつかのインスタンスがトレーニングやテストに関わっている設定に変換されることを示す。
論文 参考訳(メタデータ) (2021-02-01T10:04:28Z) - Feedback-Based Dynamic Feature Selection for Constrained Continuous Data
Acquisition [6.947442090579469]
本稿では,動的システムからデータ収集のための特徴セットをステップワイズで効率的に決定する,フィードバックに基づく動的特徴選択アルゴリズムを提案する。
評価の結果,提案手法は制約付きベースライン法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-11-10T14:19:01Z) - Feature Selection for Huge Data via Minipatch Learning [0.0]
安定ミニパッチ選択(STAMPS)と適応STAMPSを提案する。
STAMPSは、データの観測と特徴の両方の小さな(適応性の高い)ランダムなサブセットに基づいて訓練された基本特徴セレクタの選択イベントのアンサンブルを構築するメタアルゴリズムである。
われわれのアプローチは一般的であり、様々な機能選択戦略や機械学習技術に応用できる。
論文 参考訳(メタデータ) (2020-10-16T17:41:08Z) - Towards Efficient Processing and Learning with Spikes: New Approaches
for Multi-Spike Learning [59.249322621035056]
各種タスクにおける他のベースラインよりも優れた性能を示すための2つの新しいマルチスパイク学習ルールを提案する。
特徴検出タスクでは、教師なしSTDPの能力と、その制限を提示する能力を再検討する。
提案した学習ルールは,特定の制約を適用せずに,幅広い条件で確実にタスクを解くことができる。
論文 参考訳(メタデータ) (2020-05-02T06:41:20Z) - Stepwise Model Selection for Sequence Prediction via Deep Kernel
Learning [100.83444258562263]
本稿では,モデル選択の課題を解決するために,新しいベイズ最適化(BO)アルゴリズムを提案する。
結果として得られる複数のブラックボックス関数の最適化問題を協調的かつ効率的に解くために,ブラックボックス関数間の潜在的な相関を利用する。
我々は、シーケンス予測のための段階的モデル選択(SMS)の問題を初めて定式化し、この目的のために効率的な共同学習アルゴリズムを設計し、実証する。
論文 参考訳(メタデータ) (2020-01-12T09:42:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。