論文の概要: Sequential three-way decisions with a single hidden layer feedforward
neural network
- arxiv url: http://arxiv.org/abs/2303.07589v1
- Date: Tue, 14 Mar 2023 02:26:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-15 16:44:33.468264
- Title: Sequential three-way decisions with a single hidden layer feedforward
neural network
- Title(参考訳): 単一隠れ層フィードフォワードニューラルネットワークによる逐次的3方向決定
- Authors: Youxi Wu, Shuhui Cheng, Yan Li, Rongjie Lv, Fan Min
- Abstract要約: 単一隠れ層フィードフォワードニューラルネットワーク(SFNN)におけるネットワークトポロジ構築のための3方向決定戦略が採用されている。
本稿では、構造化データセット上でのネットワーク性能を高めるために、SFNN(STWD-SFNN)を用いたSTWDを提案する。
- 参考スコア(独自算出の注目度): 5.943305068876161
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The three-way decisions strategy has been employed to construct network
topology in a single hidden layer feedforward neural network (SFNN). However,
this model has a general performance, and does not consider the process costs,
since it has fixed threshold parameters. Inspired by the sequential three-way
decisions (STWD), this paper proposes STWD with an SFNN (STWD-SFNN) to enhance
the performance of networks on structured datasets. STWD-SFNN adopts
multi-granularity levels to dynamically learn the number of hidden layer nodes
from coarse to fine, and set the sequential threshold parameters. Specifically,
at the coarse granular level, STWD-SFNN handles easy-to-classify instances by
applying strict threshold conditions, and with the increasing number of hidden
layer nodes at the fine granular level, STWD-SFNN focuses more on disposing of
the difficult-to-classify instances by applying loose threshold conditions,
thereby realizing the classification of instances. Moreover, STWD-SFNN
considers and reports the process cost produced from each granular level. The
experimental results verify that STWD-SFNN has a more compact network on
structured datasets than other SFNN models, and has better generalization
performance than the competitive models. All models and datasets can be
downloaded from https://github.com/wuc567/Machine-learning/tree/main/STWD-SFNN.
- Abstract(参考訳): ネットワークトポロジを単一の隠蔽層フィードフォワードニューラルネットワーク(SFNN)で構築するための3方向決定戦略が採用されている。
しかしながら、このモデルは一般的な性能を持ち、しきい値パラメータが固定されているため、プロセスコストを考慮しない。
逐次三方向決定(STWD)にインスパイアされた本研究では,構造化データセット上でのネットワーク性能を高めるために,SFNN(STWD-SFNN)を用いたSTWDを提案する。
stwd-sfnnはマルチグラニュラ性レベルを採用し、隠れたレイヤノードの数を粗いものから細かいものまで動的に学習し、シーケンシャルしきい値パラメータを設定する。
具体的には、粗粒度レベルでは、厳格なしきい値条件を適用して容易に分類できるインスタンスを処理し、細粒度での隠れ層ノード数の増加に伴い、ゆるいしきい条件を適用して分類困難なインスタンスの配置に重点を置き、インスタンスの分類を実現する。
さらに、STWD-SFNNは、各粒度のプロセスコストを考慮し、報告する。
実験により,STWD-SFNNは他のSFNNモデルよりも構造化データセット上でよりコンパクトなネットワークを持ち,競合モデルよりも優れた一般化性能を有することを確認した。
すべてのモデルとデータセットはhttps://github.com/wuc567/Machine-learning/tree/main/STWD-SFNNからダウンロードできる。
関連論文リスト
- Entanglement Classification of Arbitrary Three-Qubit States via Artificial Neural Networks [2.715284063484557]
3ビットシステムの絡みを検知・分類する人工知能ニューラルネットワーク(ANN)を設計・実装する。
モデルはランダムに生成された状態のシミュレーションデータセット上で訓練され、検証される。
注目すべきは、密度行列の7つの対角要素をANNに供給するだけで、両方のタスクに対して94%以上の精度が得られることである。
論文 参考訳(メタデータ) (2024-11-18T06:50:10Z) - Unveiling the Power of Sparse Neural Networks for Feature Selection [60.50319755984697]
スパースニューラルネットワーク(SNN)は、効率的な特徴選択のための強力なツールとして登場した。
動的スパーストレーニング(DST)アルゴリズムで訓練されたSNNは、平均して50%以上のメモリと55%以上のFLOPを削減できることを示す。
以上の結果から,DSTアルゴリズムで訓練したSNNによる特徴選択は,平均して50ドル以上のメモリと55%のFLOPを削減できることがわかった。
論文 参考訳(メタデータ) (2024-08-08T16:48:33Z) - Multicoated and Folded Graph Neural Networks with Strong Lottery Tickets [3.0894823679470087]
本稿では,アーキテクチャとパラメータの両面から検索空間を拡張するためのマルチステージ・フォールディング法とアンシャレッド・マスク法を提案する。
高空間性、競争性能、高メモリ効率を最大98.7%の削減で達成することにより、エネルギー効率の高いグラフ処理に適していることを示す。
論文 参考訳(メタデータ) (2023-12-06T02:16:44Z) - Adaptive Growth: Real-time CNN Layer Expansion [0.0]
本研究では,データ入力に基づいて,畳み込みニューラルネットワーク(CNN)の畳み込み層を動的に進化させるアルゴリズムを提案する。
厳密なアーキテクチャの代わりに、我々のアプローチはカーネルを畳み込み層に反復的に導入し、様々なデータに対してリアルタイムに応答する。
興味深いことに、我々の教師なしの手法は、さまざまなデータセットにまたがって教師なしの手法を上回った。
論文 参考訳(メタデータ) (2023-09-06T14:43:58Z) - Interpretable Neural Networks with Random Constructive Algorithm [3.1200894334384954]
本稿では,無作為重み付きニューラルネットワークの不透明なパラメータ化プロセスに取り組むために,空間情報を組み込んだ解釈型ニューラルネットワーク(INN)を提案する。
ネットワーク収束に寄与するノードパラメータを選択するために、候補ノードのプールと関係を確立することで、幾何学的関係戦略を考案する。
論文 参考訳(メタデータ) (2023-07-01T01:07:20Z) - High-performance deep spiking neural networks with 0.3 spikes per neuron [9.01407445068455]
バイオインスパイアされたスパイクニューラルネットワーク(SNN)を人工ニューラルネットワーク(ANN)より訓練することは困難である
深部SNNモデルのトレーニングは,ANNと全く同じ性能が得られることを示す。
我々のSNNは1ニューロンあたり0.3スパイク以下で高性能な分類を行い、エネルギー効率の良い実装に役立てる。
論文 参考訳(メタデータ) (2023-06-14T21:01:35Z) - Hyperspectral Classification Based on Lightweight 3-D-CNN With Transfer
Learning [67.40866334083941]
限定サンプルに基づくHSI分類のためのエンドツーエンドの3次元軽量畳み込みニューラルネットワーク(CNN)を提案する。
従来の3D-CNNモデルと比較して,提案した3D-LWNetはネットワーク構造が深く,パラメータが小さく,計算コストも低い。
本モデルでは,HSI分類の競合性能を,いくつかの最先端手法と比較した。
論文 参考訳(メタデータ) (2020-12-07T03:44:35Z) - Exploiting Heterogeneity in Operational Neural Networks by Synaptic
Plasticity [87.32169414230822]
最近提案されたネットワークモデルであるオペレーショナルニューラルネットワーク(ONN)は、従来の畳み込みニューラルネットワーク(CNN)を一般化することができる。
本研究では, 生体ニューロンにおける本質的な学習理論を示すSynaptic Plasticityパラダイムに基づいて, ネットワークの隠蔽ニューロンに対する最強演算子集合の探索に焦点をあてる。
高難易度問題に対する実験結果から、神経細胞や層が少なくても、GISベースのONNよりも優れた学習性能が得られることが示された。
論文 参考訳(メタデータ) (2020-08-21T19:03:23Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Policy-GNN: Aggregation Optimization for Graph Neural Networks [60.50932472042379]
グラフニューラルネットワーク(GNN)は、局所的なグラフ構造をモデル化し、隣人からの情報を集約することで階層的なパターンを捉えることを目的としている。
複雑なグラフとスパースな特徴を与えられた各ノードに対して効果的なアグリゲーション戦略を開発することは難しい課題である。
本稿では,GNNのサンプリング手順とメッセージパッシングを複合学習プロセスにモデル化するメタ政治フレームワークであるPolicy-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-26T17:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。