論文の概要: FsNet: Feature Selection Network on High-dimensional Biological Data
- arxiv url: http://arxiv.org/abs/2001.08322v3
- Date: Fri, 18 Dec 2020 00:48:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 10:11:22.681591
- Title: FsNet: Feature Selection Network on High-dimensional Biological Data
- Title(参考訳): FsNet:高次元生体データの特徴選択ネットワーク
- Authors: Dinesh Singh and H\'ector Climente-Gonz\'alez and Mathis Petrovich and
Eiryo Kawakami and Makoto Yamada
- Abstract要約: 本研究では,高次元かつ少数のサンプルデータを対象とした特徴選択ネットワーク(FsNet)と呼ばれる,ディープニューラルネットワーク(DNN)に基づく非線形特徴選択手法を提案する。
FsNetは、特徴を選択する選択層と、トレーニングを安定化する再構築層で構成される。
選択層と再構成層における多数のパラメータが、限られたサンプル数で容易に過度に適合するので、我々は2つの小さなネットワークを用いて、選択層と再構成層の巨大で仮想的な重み行列を予測する。
- 参考スコア(独自算出の注目度): 16.212816276636087
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Biological data including gene expression data are generally high-dimensional
and require efficient, generalizable, and scalable machine-learning methods to
discover their complex nonlinear patterns. The recent advances in machine
learning can be attributed to deep neural networks (DNNs), which excel in
various tasks in terms of computer vision and natural language processing.
However, standard DNNs are not appropriate for high-dimensional datasets
generated in biology because they have many parameters, which in turn require
many samples. In this paper, we propose a DNN-based, nonlinear feature
selection method, called the feature selection network (FsNet), for
high-dimensional and small number of sample data. Specifically, FsNet comprises
a selection layer that selects features and a reconstruction layer that
stabilizes the training. Because a large number of parameters in the selection
and reconstruction layers can easily result in overfitting under a limited
number of samples, we use two tiny networks to predict the large, virtual
weight matrices of the selection and reconstruction layers. Experimental
results on several real-world, high-dimensional biological datasets demonstrate
the efficacy of the proposed method.
- Abstract(参考訳): 遺伝子発現データを含む生物学的データは一般に高次元であり、複雑な非線形パターンを発見するために効率的で一般化可能でスケーラブルな機械学習手法を必要とする。
機械学習の最近の進歩はディープニューラルネットワーク(DNN)によるもので、コンピュータビジョンや自然言語処理といった様々なタスクに優れています。
しかし、標準的なDNNは、多くのパラメータを持つため、生物学で生成される高次元データセットには適さない。
本稿では,高次元かつ少数のサンプルデータに対して,特徴選択ネットワーク(FsNet)と呼ばれるDNNに基づく非線形特徴選択手法を提案する。
具体的には、fsnetは、特徴を選択する選択層と、トレーニングを安定化する再構築層を含む。
選択層と再構成層におけるパラメータの多さは, 限られたサンプル数で容易に過度に適合するので, 選択層と再構成層の大きな仮想重み行列を予測するために2つの小さなネットワークを用いる。
複数の実世界の高次元生物学的データセットにおける実験結果から,提案手法の有効性が示された。
関連論文リスト
- Unveiling the Power of Sparse Neural Networks for Feature Selection [60.50319755984697]
スパースニューラルネットワーク(SNN)は、効率的な特徴選択のための強力なツールとして登場した。
動的スパーストレーニング(DST)アルゴリズムで訓練されたSNNは、平均して50%以上のメモリと55%以上のFLOPを削減できることを示す。
以上の結果から,DSTアルゴリズムで訓練したSNNによる特徴選択は,平均して50ドル以上のメモリと55%のFLOPを削減できることがわかった。
論文 参考訳(メタデータ) (2024-08-08T16:48:33Z) - Sparse-Input Neural Network using Group Concave Regularization [10.103025766129006]
ニューラルネットワークでは、同時特徴選択と非線形関数推定が困難である。
低次元と高次元の両方の設定における特徴選択のための群凹正規化を用いたスパースインプットニューラルネットワークの枠組みを提案する。
論文 参考訳(メタデータ) (2023-07-01T13:47:09Z) - Supervised Feature Selection with Neuron Evolution in Sparse Neural
Networks [17.12834153477201]
スパースニューラルネットワークを用いた資源効率の高い新しい特徴選択法を提案する。
スクラッチからトレーニングされたスパースニューラルネットワークの入力層から、不定形的特徴を徐々に抜き取ることにより、NeuroFSは、機能の情報的サブセットを効率的に導き出す。
NeuroFSは、最先端の教師付き特徴選択モデルの中で最上位のスコアを達成している。
論文 参考訳(メタデータ) (2023-03-10T17:09:55Z) - Weight Predictor Network with Feature Selection for Small Sample Tabular
Biomedical Data [7.923088041693465]
本研究では,高次元および小型サンプルデータからニューラルネットワークを学習するための特徴選択付き重み予測器ネットワークを提案する。
実世界の9つのバイオメディカルデータセットを評価し、WPFSが他の標準や最近の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-11-28T18:17:10Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - Dive into Layers: Neural Network Capacity Bounding using Algebraic
Geometry [55.57953219617467]
ニューラルネットワークの学習性はそのサイズと直接関連していることを示す。
入力データとニューラルネットワークのトポロジ的幾何学的複雑さを測定するためにベッチ数を用いる。
実世界のデータセットMNISTで実験を行い、分析結果と結論を検証した。
論文 参考訳(メタデータ) (2021-09-03T11:45:51Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - Feature Selection Based on Sparse Neural Network Layer with Normalizing
Constraints [0.0]
本論文では,2つの制約を導入したニューラルネットワークに基づく特徴選択手法を提案する。
その結果,Sparse Neural Network Layer with Normalizing Constraints (SNEL-FS) に基づく特徴選択は,従来の FS 方式に比べて重要な特徴の選択が可能であり,優れた性能が得られることがわかった。
論文 参考訳(メタデータ) (2020-12-11T14:14:33Z) - Exploiting Heterogeneity in Operational Neural Networks by Synaptic
Plasticity [87.32169414230822]
最近提案されたネットワークモデルであるオペレーショナルニューラルネットワーク(ONN)は、従来の畳み込みニューラルネットワーク(CNN)を一般化することができる。
本研究では, 生体ニューロンにおける本質的な学習理論を示すSynaptic Plasticityパラダイムに基づいて, ネットワークの隠蔽ニューロンに対する最強演算子集合の探索に焦点をあてる。
高難易度問題に対する実験結果から、神経細胞や層が少なくても、GISベースのONNよりも優れた学習性能が得られることが示された。
論文 参考訳(メタデータ) (2020-08-21T19:03:23Z) - OSLNet: Deep Small-Sample Classification with an Orthogonal Softmax
Layer [77.90012156266324]
本稿では,ニューラルネットワークのサブスペースを見つけることを目的としている。
そこで本研究では,Orthogonal Softmax Layer (OSL) を提案する。
実験結果から,提案OSLは4つの小サンプルベンチマークデータセットとの比較に用いた手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-04-20T02:41:01Z) - A study of local optima for learning feature interactions using neural
networks [4.94950858749529]
NNが比較的少量のトレーニングデータに基づいて訓練されるデータスターベッド方式について検討する。
XOR-likeデータ上のクロスエントロピー損失関数は多くの非等価局所最適値を持つことを示した。
実データセット上でのNNの性能はプルーニングにより改善できることを示す。
論文 参考訳(メタデータ) (2020-02-11T11:38:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。