論文の概要: E2E-FS: An End-to-End Feature Selection Method for Neural Networks
- arxiv url: http://arxiv.org/abs/2012.07671v1
- Date: Mon, 14 Dec 2020 16:19:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-08 14:24:39.877267
- Title: E2E-FS: An End-to-End Feature Selection Method for Neural Networks
- Title(参考訳): E2E-FS:ニューラルネットワークのエンドツーエンド特徴選択手法
- Authors: Brais Cancela and Ver\'onica Bol\'on-Canedo and Amparo Alonso-Betanzos
- Abstract要約: EndtoEnd Feature Selection (E2FS) と呼ばれる新しい選択アルゴリズムを提案する。
アルゴリズムは,ラッソ法と同様,勾配降下法を用いて解く。
厳しい制約はあるものの、実験結果は、このアルゴリズムがどんな学習モデルでも利用できることを示している。
- 参考スコア(独自算出の注目度): 0.3222802562733786
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Classic embedded feature selection algorithms are often divided in two large
groups: tree-based algorithms and lasso variants. Both approaches are focused
in different aspects: while the tree-based algorithms provide a clear
explanation about which variables are being used to trigger a certain output,
lasso-like approaches sacrifice a detailed explanation in favor of increasing
its accuracy. In this paper, we present a novel embedded feature selection
algorithm, called End-to-End Feature Selection (E2E-FS), that aims to provide
both accuracy and explainability in a clever way. Despite having non-convex
regularization terms, our algorithm, similar to the lasso approach, is solved
with gradient descent techniques, introducing some restrictions that force the
model to specifically select a maximum number of features that are going to be
used subsequently by the classifier. Although these are hard restrictions, the
experimental results obtained show that this algorithm can be used with any
learning model that is trained using a gradient descent algorithm.
- Abstract(参考訳): 古典的な組込み特徴選択アルゴリズムはしばしば木に基づくアルゴリズムとラッソ変種という2つの大きなグループに分けられる。
ツリーベースのアルゴリズムは、特定の出力をトリガーするためにどの変数が使われているのかを明確に説明するが、ラッソ的なアプローチは正確性を高めるために詳細な説明を犠牲にする。
本稿では,E2E-FS(End-to-End Feature Selection)と呼ばれる新しい特徴選択アルゴリズムを提案する。
非凸正規化項を持つにもかかわらず、このアルゴリズムはラッソ法と同様、勾配降下法を用いて解かれ、モデルに、次に分類器によって使用されるであろう最大数の特徴を特に選択させる制限が課される。
これらは厳しい制約であるが、実験の結果、このアルゴリズムは勾配降下アルゴリズムを用いて訓練された任意の学習モデルで使用できることが示された。
関連論文リスト
- Fair Feature Subset Selection using Multiobjective Genetic Algorithm [0.0]
フェアネスと精度を両立させる特徴部分選択手法を提案する。
モデル性能の指標としてF1-Scoreを用いる。
最も一般的なフェアネスベンチマークデータセットの実験では、進化的アルゴリズムを用いることで、フェアネスと精度のトレードオフを効果的に探索できることが示されている。
論文 参考訳(メタデータ) (2022-04-30T22:51:19Z) - Per-run Algorithm Selection with Warm-starting using Trajectory-based
Features [5.073358743426584]
インスタンスごとのアルゴリズム選択は、与えられた問題の場合、1つまたは複数の適切なアルゴリズムを推奨する。
提案手法は,実行毎のアルゴリズム選択を行うオンラインアルゴリズム選択方式を提案する。
提案手法は静的なインスタンスごとのアルゴリズム選択よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-04-20T14:30:42Z) - Algorithm Selection on a Meta Level [58.720142291102135]
本稿では,与えられたアルゴリズムセレクタの組み合わせに最適な方法を求めるメタアルゴリズム選択の問題を紹介する。
本稿では,メタアルゴリズム選択のための一般的な方法論フレームワークと,このフレームワークのインスタンス化として具体的な学習手法を提案する。
論文 参考訳(メタデータ) (2021-07-20T11:23:21Z) - Polygonal Unadjusted Langevin Algorithms: Creating stable and efficient
adaptive algorithms for neural networks [0.0]
本稿では,Langevinベースのアルゴリズムを新たに導入し,一般的な適応的消滅アルゴリズムの欠点の多くを克服する。
特に、この新しいクラスのアルゴリズムの収束性についての漸近解析と完全な理論的保証を提供し、TH$varepsilon$O POULA(あるいは単にTheoPouLa)と名付けた。
論文 参考訳(メタデータ) (2021-05-28T15:58:48Z) - Two novel features selection algorithms based on crowding distance [0.0]
提案アルゴリズムは,多目的最適化に使用される群集距離を指標として特徴量をソートする。
実験結果は,提案アルゴリズムの有効性と堅牢性を示した。
論文 参考訳(メタデータ) (2021-05-11T17:27:56Z) - Towards Meta-Algorithm Selection [78.13985819417974]
インスタンス固有のアルゴリズム選択(AS)は、固定された候補集合からのアルゴリズムの自動選択を扱う。
メタアルゴリズムの選択は、いくつかのケースで有益であることを示す。
論文 参考訳(メタデータ) (2020-11-17T17:27:33Z) - Modeling Text with Decision Forests using Categorical-Set Splits [2.434796198711328]
軸方向決定林では、入力例をルートする「決定」は特徴空間の1次元における条件の評価の結果である。
分類的特徴に特有な条件を定義し,それを学習するためのアルゴリズムを提案する。
我々のアルゴリズムは訓練中は効率的であり、結果の条件はQuickScorer推論アルゴリズムの拡張により高速に評価できる。
論文 参考訳(メタデータ) (2020-09-21T16:16:35Z) - Run2Survive: A Decision-theoretic Approach to Algorithm Selection based
on Survival Analysis [75.64261155172856]
生存分析(SA)は、自然に検閲されたデータをサポートし、アルゴリズムランタイムの分散モデルを学習するためにそのようなデータを使用する適切な方法を提供する。
我々は、アルゴリズム選択に対する洗練された決定論的アプローチの基礎として、そのようなモデルを活用し、Run2Surviveを疑う。
標準ベンチマークASlibによる広範な実験では、我々のアプローチは競争力が高く、多くの場合、最先端のASアプローチよりも優れていることが示されている。
論文 参考訳(メタデータ) (2020-07-06T15:20:17Z) - Learning to Accelerate Heuristic Searching for Large-Scale Maximum
Weighted b-Matching Problems in Online Advertising [51.97494906131859]
バイパルタイトbマッチングはアルゴリズム設計の基本であり、経済市場や労働市場などに広く適用されている。
既存の正確で近似的なアルゴリズムは、通常そのような設定で失敗する。
我々は、以前の事例から学んだ知識を活用して、新しい問題インスタンスを解決するtextttNeuSearcherを提案する。
論文 参考訳(メタデータ) (2020-05-09T02:48:23Z) - Extreme Algorithm Selection With Dyadic Feature Representation [78.13985819417974]
我々は,数千の候補アルゴリズムの固定セットを考慮に入れた,極端なアルゴリズム選択(XAS)の設定を提案する。
我々は、XAS設定に対する最先端のAS技術の適用性を評価し、Dyadic特徴表現を利用したアプローチを提案する。
論文 参考訳(メタデータ) (2020-01-29T09:40:58Z) - Stepwise Model Selection for Sequence Prediction via Deep Kernel
Learning [100.83444258562263]
本稿では,モデル選択の課題を解決するために,新しいベイズ最適化(BO)アルゴリズムを提案する。
結果として得られる複数のブラックボックス関数の最適化問題を協調的かつ効率的に解くために,ブラックボックス関数間の潜在的な相関を利用する。
我々は、シーケンス予測のための段階的モデル選択(SMS)の問題を初めて定式化し、この目的のために効率的な共同学習アルゴリズムを設計し、実証する。
論文 参考訳(メタデータ) (2020-01-12T09:42:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。