論文の概要: Orthogonal Stochastic Configuration Networks with Adaptive Construction
Parameter for Data Analytics
- arxiv url: http://arxiv.org/abs/2205.13191v1
- Date: Thu, 26 May 2022 07:07:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-27 14:24:52.579335
- Title: Orthogonal Stochastic Configuration Networks with Adaptive Construction
Parameter for Data Analytics
- Title(参考訳): データ解析のための適応構成パラメータを用いた直交確率構成ネットワーク
- Authors: Wei Dai, Chuanfeng Ning, Shiyu Pei, Song Zhu, Xuesong Wang
- Abstract要約: ランダム性により、SCNは冗長で品質の低い近似線形相関ノードを生成する可能性が高まる。
機械学習の基本原理、すなわち、パラメータが少ないモデルでは、一般化が向上する。
本稿では,ネットワーク構造低減のために,低品質な隠れノードをフィルタする直交SCN(OSCN)を提案する。
- 参考スコア(独自算出の注目度): 6.940097162264939
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a randomized learner model, SCNs are remarkable that the random weights
and biases are assigned employing a supervisory mechanism to ensure universal
approximation and fast learning. However, the randomness makes SCNs more likely
to generate approximate linear correlative nodes that are redundant and low
quality, thereby resulting in non-compact network structure. In the light of a
fundamental principle in machine learning, that is, a model with fewer
parameters holds improved generalization. This paper proposes orthogonal SCN,
termed OSCN, to filtrate out the low-quality hidden nodes for network structure
reduction by incorporating Gram-Schmidt orthogonalization technology. The
universal approximation property of OSCN and an adaptive setting for the key
construction parameters have been presented in details. In addition, an
incremental updating scheme is developed to dynamically determine the output
weights, contributing to improved computational efficiency. Finally,
experimental results on two numerical examples and several real-world
regression and classification datasets substantiate the effectiveness and
feasibility of the proposed approach.
- Abstract(参考訳): ランダム化学習者モデルとして、ランダム重みとバイアスが、普遍的な近似と高速な学習を保証するための監督機構を用いて割り当てられていることは注目に値する。
しかし、このランダム性により、SCNは冗長で品質の低い近似線形相関ノードを生成する傾向が高くなり、結果として非コンパクトネットワーク構造となる。
機械学習の基本的な原則、すなわちパラメータの少ないモデルでは、一般化が改善されている。
本稿では, グラムシュミット直交技術を用いて, ネットワーク構造低減のための低品質の隠れノードをろ過する直交scnを提案する。
OSCNの普遍近似特性と鍵構成パラメータの適応的設定を詳述した。
さらに、出力重みを動的に決定するためにインクリメンタル更新スキームを開発し、計算効率の向上に寄与する。
最後に、2つの数値例と複数の実世界の回帰と分類データセットによる実験結果から,提案手法の有効性と妥当性を実証した。
関連論文リスト
- Recurrent Stochastic Configuration Networks with Incremental Blocks [0.0]
リカレント・コンフィグレーション・ネットワーク(RSCN)は、順序の不確実性を伴う非線形力学系のモデリングにおいて、将来性を示す。
本稿では,ブロックインクリメントを持つブロックRCCN(BRSCN)を開発した。
BRSCNは建設中に複数の貯水池ノード(貯水池)を同時に追加することができる。
論文 参考訳(メタデータ) (2024-11-18T05:58:47Z) - Deeper Insights into Learning Performance of Stochastic Configuration Networks [3.8719670789415925]
SCN(Configuration Networks)は、ランダム化されたアルゴリズムをインクリメンタル学習フレームワークに組み込む、ランダム化されたニューラルネットワークのクラスである。
SCNの学習性能に及ぼす監督機構の影響を包括的に分析する。
そこで本研究では,隠れ層の出力行列を評価する手法を提案する。
論文 参考訳(メタデータ) (2024-11-13T11:45:39Z) - Deep Recurrent Stochastic Configuration Networks for Modelling Nonlinear Dynamic Systems [3.8719670789415925]
本稿ではディープリカレント構成ネットワーク(DeepRSCN)と呼ばれる新しいディープリカレント計算フレームワークを提案する。
DeepRSCNはインクリメンタルに構築され、すべての貯水池ノードは最終的な出力に直接リンクする。
トレーニングサンプルのセットが与えられた場合、DeepRSCNは、カスケードされた入力読み出し重みを持つランダム基底関数からなる学習表現を迅速に生成できる。
論文 参考訳(メタデータ) (2024-10-28T10:33:15Z) - Dynamically configured physics-informed neural network in topology
optimization applications [4.403140515138818]
物理インフォームドニューラルネットワーク(PINN)は、前方問題を解決する際に大量のデータを生成するのを避けることができる。
動的に構成された PINN-based Topology Optimization (DCPINN-TO) 法を提案する。
変位予測と最適化結果の精度は,DCPINN-TO法が効率的かつ効率的であることを示している。
論文 参考訳(メタデータ) (2023-12-12T05:35:30Z) - Stability and Generalization Analysis of Gradient Methods for Shallow
Neural Networks [59.142826407441106]
本稿では,アルゴリズム安定性の概念を活用して,浅層ニューラルネットワーク(SNN)の一般化挙動について検討する。
我々は、SNNを訓練するために勾配降下(GD)と勾配降下(SGD)を考慮する。
論文 参考訳(メタデータ) (2022-09-19T18:48:00Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - LocalDrop: A Hybrid Regularization for Deep Neural Networks [98.30782118441158]
本稿では,ローカルラデマチャー複雑性を用いたニューラルネットワークの正規化のための新しい手法であるLocalDropを提案する。
フルコネクテッドネットワーク(FCN)と畳み込みニューラルネットワーク(CNN)の両方のための新しい正規化機能は、ローカルラデマチャー複雑さの上限提案に基づいて開発されました。
論文 参考訳(メタデータ) (2021-03-01T03:10:11Z) - DessiLBI: Exploring Structural Sparsity of Deep Networks via
Differential Inclusion Paths [45.947140164621096]
逆スケール空間の差分包摂に基づく新しい手法を提案する。
DessiLBIが早期に「優勝チケット」を発表することを示す。
論文 参考訳(メタデータ) (2020-07-04T04:40:16Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Controllable Orthogonalization in Training DNNs [96.1365404059924]
直交性はディープニューラルネットワーク(DNN)のトレーニングに広く用いられている。
本稿では,ニュートン反復(ONI)を用いた計算効率が高く,数値的に安定な直交化法を提案する。
本稿では,画像分類ネットワークの性能向上のために,最適化の利点と表現能力の低下との間に最適なトレードオフを与えるために,直交性を効果的に制御する手法を提案する。
また、ONIは、スペクトル正規化と同様に、ネットワークのリプシッツ連続性を維持することにより、GAN(Generative Adversarial Network)のトレーニングを安定化させることを示した。
論文 参考訳(メタデータ) (2020-04-02T10:14:27Z) - Supervised Learning for Non-Sequential Data: A Canonical Polyadic
Decomposition Approach [85.12934750565971]
特徴相互作用の効率的なモデリングは、非順序的タスクに対する教師あり学習の基盤となる。
この問題を緩和するため、モデルパラメータをテンソルとして暗黙的に表現することが提案されている。
表現性を向上するため,任意の高次元特徴ベクトルに特徴写像を適用できるようにフレームワークを一般化する。
論文 参考訳(メタデータ) (2020-01-27T22:38:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。