論文の概要: Neural Gaussian Mirror for Controlled Feature Selection in Neural
Networks
- arxiv url: http://arxiv.org/abs/2010.06175v1
- Date: Tue, 13 Oct 2020 04:30:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 22:53:21.164804
- Title: Neural Gaussian Mirror for Controlled Feature Selection in Neural
Networks
- Title(参考訳): ニューラルネットワークにおける特徴選択制御のためのニューラルガウスミラー
- Authors: Xin Xing, Yu Gui, Chenguang Dai, and Jun S. Liu
- Abstract要約: 本稿では,カーネルをベースとした条件依存度に基づく構造的摂動により,ミラー化された特徴が生成されるニューラルガウスミラー(NGM)を紹介し,特徴の重要性を評価する。
シミュレーションおよび実データ例で示すように,提案手法は事前定義されたレベルで特徴選択誤差率を制御し,高度に相関した特徴が存在する場合でも高い選択力を維持する。
- 参考スコア(独自算出の注目度): 3.716862357836751
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) have become increasingly popular and achieved
outstanding performance in predictive tasks. However, the DNN framework itself
cannot inform the user which features are more or less relevant for making the
prediction, which limits its applicability in many scientific fields. We
introduce neural Gaussian mirrors (NGMs), in which mirrored features are
created, via a structured perturbation based on a kernel-based conditional
dependence measure, to help evaluate feature importance. We design two
modifications of the DNN architecture for incorporating mirrored features and
providing mirror statistics to measure feature importance. As shown in
simulated and real data examples, the proposed method controls the feature
selection error rate at a predefined level and maintains a high selection power
even with the presence of highly correlated features.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)はますます普及し、予測タスクにおいて優れたパフォーマンスを実現している。
しかし、DNNフレームワーク自体は、多くの科学分野における適用性を制限する予測にどのような特徴が関係しているかをユーザーに知らせることができない。
神経ガウスミラー(neural gaussian mirrors, ngms)は, カーネルに基づく条件依存尺度に基づく構造的摂動によって, 特徴量を評価するのに役立つ。
我々は,DNNアーキテクチャの2つの改良点を設計し,特徴量を測定するミラー統計を提供する。
シミュレーションおよび実データ例で示すように,提案手法は特徴選択誤り率を予め定義されたレベルで制御し,高い相関性を有する特徴が存在する場合でも高い選択力を維持する。
関連論文リスト
- A dynamic vision sensor object recognition model based on trainable event-driven convolution and spiking attention mechanism [9.745798797360886]
Spiking Neural Networks(SNN)は、ダイナミックビジュアルセンサー(DVS)からのイベントストリームを処理するのに適している
DVSオブジェクトから特徴を抽出するために、SNNは通常、固定されたカーネルパラメータでイベント駆動の畳み込みを使用する。
トレーニング可能なイベント駆動型畳み込みとスパイク注意機構を利用するDVSオブジェクト認識モデルを提案する。
論文 参考訳(メタデータ) (2024-09-19T12:01:05Z) - Unveiling the Power of Sparse Neural Networks for Feature Selection [60.50319755984697]
スパースニューラルネットワーク(SNN)は、効率的な特徴選択のための強力なツールとして登場した。
動的スパーストレーニング(DST)アルゴリズムで訓練されたSNNは、平均して50%以上のメモリと55%以上のFLOPを削減できることを示す。
以上の結果から,DSTアルゴリズムで訓練したSNNによる特徴選択は,平均して50ドル以上のメモリと55%のFLOPを削減できることがわかった。
論文 参考訳(メタデータ) (2024-08-08T16:48:33Z) - Subject-specific Deep Neural Networks for Count Data with
High-cardinality Categorical Features [1.2289361708127877]
本稿では,ポアソンディープニューラルネットワークにガンマランダム効果を導入するための新しい階層的確率学習フレームワークを提案する。
提案手法は,固定パラメータの最大極大推定器とランダム効果の最適非バイアス予測器を同時に生成する。
最先端のネットワークアーキテクチャは、提案されたh-likelihoodフレームワークに容易に実装できる。
論文 参考訳(メタデータ) (2023-10-18T01:54:48Z) - Automotive Object Detection via Learning Sparse Events by Spiking Neurons [20.930277906912394]
スパイキングニューラルネットワーク(SNN)は、本質的にイベントベースのデータと整合した時間的表現を提供する。
自動車のイベントベース物体検出に最適化された特化スパイキング特徴ピラミッドネットワーク(SpikeFPN)を提案する。
論文 参考訳(メタデータ) (2023-07-24T15:47:21Z) - Sparse-Input Neural Network using Group Concave Regularization [10.103025766129006]
ニューラルネットワークでは、同時特徴選択と非線形関数推定が困難である。
低次元と高次元の両方の設定における特徴選択のための群凹正規化を用いたスパースインプットニューラルネットワークの枠組みを提案する。
論文 参考訳(メタデータ) (2023-07-01T13:47:09Z) - Supervised Feature Selection with Neuron Evolution in Sparse Neural
Networks [17.12834153477201]
スパースニューラルネットワークを用いた資源効率の高い新しい特徴選択法を提案する。
スクラッチからトレーニングされたスパースニューラルネットワークの入力層から、不定形的特徴を徐々に抜き取ることにより、NeuroFSは、機能の情報的サブセットを効率的に導き出す。
NeuroFSは、最先端の教師付き特徴選択モデルの中で最上位のスコアを達成している。
論文 参考訳(メタデータ) (2023-03-10T17:09:55Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - Batch-Ensemble Stochastic Neural Networks for Out-of-Distribution
Detection [55.028065567756066]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイすることの重要性から、マシンラーニングコミュニティから注目を集めている。
本稿では,特徴量の分布をモデル化した不確実な定量化手法を提案する。
バッチアンサンブルニューラルネットワーク(BE-SNN)の構築と機能崩壊問題の克服を目的として,効率的なアンサンブル機構,すなわちバッチアンサンブルを組み込んだ。
We show that BE-SNNs yield superior performance on the Two-Moons dataset, the FashionMNIST vs MNIST dataset, FashionM。
論文 参考訳(メタデータ) (2022-06-26T16:00:22Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。