論文の概要: A New Learning Paradigm for Stochastic Configuration Network: SCN+
- arxiv url: http://arxiv.org/abs/2203.07068v1
- Date: Fri, 11 Mar 2022 13:17:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-15 16:52:00.108557
- Title: A New Learning Paradigm for Stochastic Configuration Network: SCN+
- Title(参考訳): 確率的構成ネットワークのための新しい学習パラダイム:SCN+
- Authors: Yanshuang Ao, Xinyu Zhou and Wei Dai
- Abstract要約: 本稿では,構成ネットワーク(SCN+)のためのLUPIパラダイムを用いた漸進学習アルゴリズムを初めて提案する。
このアルゴリズムは、SCNをトレーニングする新しい方法を提供する訓練段階において、特権情報をSCNに活用することができる。
- 参考スコア(独自算出の注目度): 11.965831092862562
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning using privileged information (LUPI) paradigm, which pioneered
teacher-student interaction mechanism, makes the learning models use additional
information in training stage. This paper is the first to propose an
incremental learning algorithm with LUPI paradigm for stochastic configuration
network (SCN), named SCN+. This novel algorithm can leverage privileged
information into SCN in the training stage, which provides a new method to
train SCN. Moreover, the convergences have been studied in this paper. Finally,
experimental results indicate that SCN+ indeed performs favorably.
- Abstract(参考訳): 教師と学生のインタラクションメカニズムの先駆けとなった特権情報(LUPI)パラダイムを用いた学習は、学習モデルをトレーニング段階で追加情報を使用するようにする。
本稿では,確率的構成ネットワーク(SCN+)のためのLUPIパラダイムを用いた漸進学習アルゴリズムを初めて提案する。
このアルゴリズムは、SCNをトレーニングする新しい方法を提供する訓練段階において、特権情報をSCNに活用することができる。
さらに,本論文では収束について検討した。
最後に, SCN+が好適な性能を示した。
関連論文リスト
- Deeper Insights into Learning Performance of Stochastic Configuration Networks [3.8719670789415925]
SCN(Configuration Networks)は、ランダム化されたアルゴリズムをインクリメンタル学習フレームワークに組み込む、ランダム化されたニューラルネットワークのクラスである。
SCNの学習性能に及ぼす監督機構の影響を包括的に分析する。
そこで本研究では,隠れ層の出力行列を評価する手法を提案する。
論文 参考訳(メタデータ) (2024-11-13T11:45:39Z) - A Structural-Clustering Based Active Learning for Graph Neural Networks [16.85038790429607]
グラフ構造化データに特化して設計された能動学習(SPA)の改善のための構造クラスタリングページランク法を提案する。
SPAは,SCANアルゴリズムを用いたコミュニティ検出とPageRankスコアリング手法を統合し,効率的かつ有益なサンプル選択を行う。
論文 参考訳(メタデータ) (2023-12-07T14:04:38Z) - Stochastic Unrolled Federated Learning [85.6993263983062]
本稿では,UnRolled Federated Learning (SURF)を導入する。
提案手法は,この拡張における2つの課題,すなわち,非学習者へのデータセット全体の供給の必要性と,フェデレート学習の分散的性質に対処する。
論文 参考訳(メタデータ) (2023-05-24T17:26:22Z) - Training Spiking Neural Networks with Local Tandem Learning [96.32026780517097]
スパイキングニューラルネットワーク(SNN)は、前者よりも生物学的に可塑性でエネルギー効率が高いことが示されている。
本稿では,局所タンデム学習(Local Tandem Learning, LTL)と呼ばれる一般化学習規則を提案する。
CIFAR-10データセット上の5つのトレーニングエポック内に高速なネットワーク収束を示すとともに,計算複雑性が低い。
論文 参考訳(メタデータ) (2022-10-10T10:05:00Z) - A Novel Approach To Network Intrusion Detection System Using Deep
Learning For Sdn: Futuristic Approach [0.0]
Software-Defined Networking (SDN)は、従来のネットワークのアーキテクチャを変更する次世代である。
本研究では,NIDS-DL(Network Intrusion Detection System-Deep Learning Module)アプローチを提案する。
提案手法はバイナリ分類と攻撃検出に有効であった。
論文 参考訳(メタデータ) (2022-08-03T14:23:16Z) - Orthogonal Stochastic Configuration Networks with Adaptive Construction
Parameter for Data Analytics [6.940097162264939]
ランダム性により、SCNは冗長で品質の低い近似線形相関ノードを生成する可能性が高まる。
機械学習の基本原理、すなわち、パラメータが少ないモデルでは、一般化が向上する。
本稿では,ネットワーク構造低減のために,低品質な隠れノードをフィルタする直交SCN(OSCN)を提案する。
論文 参考訳(メタデータ) (2022-05-26T07:07:26Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Probabilistic Federated Learning of Neural Networks Incorporated with
Global Posterior Information [4.067903810030317]
フェデレートラーニングでは、ローカルクライアントで訓練されたモデルをグローバルモデルに蒸留する。
本稿では,確率的フェデレーションニューラルネットワークの拡張手法を提案する。
我々の新しい手法は、単一のコミュニケーションラウンドと追加のコミュニケーションラウンドの両方において、一般的な最先端のフェデレーション学習方法より優れています。
論文 参考訳(メタデータ) (2020-12-06T03:54:58Z) - Neural Networks Enhancement with Logical Knowledge [83.9217787335878]
関係データに対するKENNの拡張を提案する。
その結果、KENNは、存在関係データにおいても、基礎となるニューラルネットワークの性能を高めることができることがわかった。
論文 参考訳(メタデータ) (2020-09-13T21:12:20Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Few-Shot Class-Incremental Learning [68.75462849428196]
本稿では,FSCIL問題に焦点をあてる。
FSCIL は CNN モデルに対して,学習済みのクラスを忘れることなく,ラベル付きサンプルのごく少数から新たなクラスを漸進的に学習することを求めている。
我々は,異なるクラスで形成される特徴多様体のトポロジーを学習し,保存するニューラルネットワーク(NG)ネットワークを用いて,知識を表現する。
論文 参考訳(メタデータ) (2020-04-23T03:38:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。