論文の概要: Nonparametric Feature Selection by Random Forests and Deep Neural
Networks
- arxiv url: http://arxiv.org/abs/2201.06821v1
- Date: Tue, 18 Jan 2022 08:45:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 23:15:14.806950
- Title: Nonparametric Feature Selection by Random Forests and Deep Neural
Networks
- Title(参考訳): ランダムフォレストとディープニューラルネットワークによる非パラメトリック特徴選択
- Authors: Xiaojun Mao, Liuhua Peng and Zhonglei Wang
- Abstract要約: ランダムな森林とディープニューラルネットワークを組み込んだ非パラメトリック特徴選択アルゴリズムを提案する。
このアルゴリズムは標準的なランダムフォレストを用いて提案されているが、他の機械学習アルゴリズムに広く適用することができる。
- 参考スコア(独自算出の注目度): 4.232614032390374
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Random forests are a widely used machine learning algorithm, but their
computational efficiency is undermined when applied to large-scale datasets
with numerous instances and useless features. Herein, we propose a
nonparametric feature selection algorithm that incorporates random forests and
deep neural networks, and its theoretical properties are also investigated
under regularity conditions. Using different synthetic models and a real-world
example, we demonstrate the advantage of the proposed algorithm over other
alternatives in terms of identifying useful features, avoiding useless ones,
and the computation efficiency. Although the algorithm is proposed using
standard random forests, it can be widely adapted to other machine learning
algorithms, as long as features can be sorted accordingly.
- Abstract(参考訳): ランダムフォレストは広く使われている機械学習アルゴリズムであるが、多くのインスタンスと役に立たない特徴を持つ大規模データセットに適用すると、その計算効率は低下する。
本稿では,ランダムフォレストとディープニューラルネットワークを組み込んだ非パラメトリック特徴選択アルゴリズムを提案し,その理論的性質を正規性条件下で検討する。
異なる合成モデルと実例を用いて,有用な特徴の同定,役に立たない特徴の回避,計算効率の面で,提案アルゴリズムの利点を実証する。
このアルゴリズムは標準ランダムフォレストを用いて提案されているが、特徴を適切にソートできる限り、他の機械学習アルゴリズムに広く適用することができる。
関連論文リスト
- Unveiling the Power of Sparse Neural Networks for Feature Selection [60.50319755984697]
スパースニューラルネットワーク(SNN)は、効率的な特徴選択のための強力なツールとして登場した。
動的スパーストレーニング(DST)アルゴリズムで訓練されたSNNは、平均して50%以上のメモリと55%以上のFLOPを削減できることを示す。
以上の結果から,DSTアルゴリズムで訓練したSNNによる特徴選択は,平均して50ドル以上のメモリと55%のFLOPを削減できることがわかった。
論文 参考訳(メタデータ) (2024-08-08T16:48:33Z) - Sample Complexity of Algorithm Selection Using Neural Networks and Its Applications to Branch-and-Cut [1.4624458429745086]
本研究は,最適な性能を持つ1つのアルゴリズムを選択するのではなく,インスタンスに基づいてアルゴリズムを選択することが可能となるような設定を考慮し,最近の研究を基礎にしている。
特に、代表的なインスタンスのサンプルが与えられた場合、問題のインスタンスをそのインスタンスの最も適切なアルゴリズムにマッピングするニューラルネットワークを学習する。
言い換えれば、ニューラルネットワークは混合整数最適化インスタンスを入力として取り、そのインスタンスの小さな分岐とカットツリーをもたらす決定を出力する。
論文 参考訳(メタデータ) (2024-02-04T03:03:27Z) - Sparse-Input Neural Network using Group Concave Regularization [10.103025766129006]
ニューラルネットワークでは、同時特徴選択と非線形関数推定が困難である。
低次元と高次元の両方の設定における特徴選択のための群凹正規化を用いたスパースインプットニューラルネットワークの枠組みを提案する。
論文 参考訳(メタデータ) (2023-07-01T13:47:09Z) - Efficient Learning of Minimax Risk Classifiers in High Dimensions [3.093890460224435]
高次元データは、医療やゲノム学など、数万もの特徴を持つ領域で一般的である。
本稿では,このような手法を用いて,最近提案されたミニマックスリスク分類器の効率的な学習アルゴリズムを提案する。
複数の高次元データセットに対する実験により,提案アルゴリズムは高次元シナリオにおいて効率的であることが示された。
論文 参考訳(メタデータ) (2023-06-11T11:08:20Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Waypoint Planning Networks [66.72790309889432]
本稿では,ローカルカーネル(A*のような古典的アルゴリズム)と学習アルゴリズムを用いたグローバルカーネルを用いたLSTMに基づくハイブリッドアルゴリズムを提案する。
我々は、WPNとA*を比較し、動き計画ネットワーク(MPNet)やバリューネットワーク(VIN)を含む関連する作業と比較する。
WPN の探索空間は A* よりもかなり小さいが、ほぼ最適な結果が得られることが示されている。
論文 参考訳(メタデータ) (2021-05-01T18:02:01Z) - Towards Optimally Efficient Tree Search with Deep Learning [76.64632985696237]
本稿では,線形モデルから信号整数を推定する古典整数最小二乗問題について検討する。
問題はNPハードであり、信号処理、バイオインフォマティクス、通信、機械学習といった様々な応用でしばしば発生する。
本稿では, 深いニューラルネットワークを用いて, 単純化されたメモリバウンドA*アルゴリズムの最適推定を推定し, HATSアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-07T08:00:02Z) - E2E-FS: An End-to-End Feature Selection Method for Neural Networks [0.3222802562733786]
EndtoEnd Feature Selection (E2FS) と呼ばれる新しい選択アルゴリズムを提案する。
アルゴリズムは,ラッソ法と同様,勾配降下法を用いて解く。
厳しい制約はあるものの、実験結果は、このアルゴリズムがどんな学習モデルでも利用できることを示している。
論文 参考訳(メタデータ) (2020-12-14T16:19:25Z) - Modeling Text with Decision Forests using Categorical-Set Splits [2.434796198711328]
軸方向決定林では、入力例をルートする「決定」は特徴空間の1次元における条件の評価の結果である。
分類的特徴に特有な条件を定義し,それを学習するためのアルゴリズムを提案する。
我々のアルゴリズムは訓練中は効率的であり、結果の条件はQuickScorer推論アルゴリズムの拡張により高速に評価できる。
論文 参考訳(メタデータ) (2020-09-21T16:16:35Z) - MurTree: Optimal Classification Trees via Dynamic Programming and Search [61.817059565926336]
動的プログラミングと探索に基づいて最適な分類木を学習するための新しいアルゴリズムを提案する。
当社のアプローチでは,最先端技術が必要とする時間のごく一部しか使用せず,数万のインスタンスでデータセットを処理することが可能です。
論文 参考訳(メタデータ) (2020-07-24T17:06:55Z) - Stochastic batch size for adaptive regularization in deep network
optimization [63.68104397173262]
ディープラーニングフレームワークにおける機械学習問題に適用可能な適応正規化を取り入れた一階最適化アルゴリズムを提案する。
一般的なベンチマークデータセットに適用した従来のネットワークモデルに基づく画像分類タスクを用いて,提案アルゴリズムの有効性を実証的に実証した。
論文 参考訳(メタデータ) (2020-04-14T07:54:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。