論文の概要: Kernel Stochastic Configuration Networks for Nonlinear Regression
- arxiv url: http://arxiv.org/abs/2412.05846v1
- Date: Sun, 08 Dec 2024 07:54:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 14:57:21.535927
- Title: Kernel Stochastic Configuration Networks for Nonlinear Regression
- Title(参考訳): 非線形回帰のためのカーネル確率的構成ネットワーク
- Authors: Yongxuan Chen, Dianhui Wang,
- Abstract要約: 本稿では,コンフィグレーションネットワーク(SCN)のカーネルバージョンについて述べる。
モデルの表現学習能力と性能安定性を高めることを目的としている。
再構成空間におけるデータ分布は回帰解法に好適であることが示されている。
- 参考スコア(独自算出の注目度): 3.8719670789415925
- License:
- Abstract: Stochastic configuration networks (SCNs), as a class of randomized learner models, are featured by its way of random parameters assignment in the light of a supervisory mechanism, resulting in the universal approximation property at algorithmic level. This paper presents a kernel version of SCNs, termed KSCNs, aiming to enhance model's representation learning capability and performance stability. The random bases of a built SCN model can be used to span a reproducing kernel Hilbert space (RKHS), followed by our proposed algorithm for constructing KSCNs. It is shown that the data distribution in the reconstructive space is favorable for regression solving and the proposed KSCN learner models hold the universal approximation property. Three benchmark datasets including two industrial datasets are used in this study for performance evaluation. Experimental results with comparisons against existing solutions clearly demonstrate that the proposed KSCN remarkably outperforms the original SCNs and some typical kernel methods for resolving nonlinear regression problems in terms of the learning performance, the model's stability and robustness with respect to the kernel parameter settings.
- Abstract(参考訳): 確率的構成ネットワーク(Stochastic configuration network,SCN)は、ランダムな学習者モデルのクラスであり、オーバシリ機構の照らしたランダムパラメータの割り当てによって特徴付けられ、アルゴリズムレベルでの普遍的な近似特性をもたらす。
本稿では,モデル表現学習能力と性能安定性の向上を目的とした,SCNのカーネルバージョンKSCNを提案する。
構築されたSCNモデルのランダムベースは、再現されたカーネルヒルベルト空間(RKHS)にまたがって使用することができる。
再構成空間におけるデータ分布は回帰解法に好適であることが示され,提案したKSCN学習者モデルは普遍近似特性を有する。
本研究では,2つの産業データセットを含む3つのベンチマークデータセットを用いて性能評価を行った。
既存のソリューションとの比較による実験結果から,提案したKSCNは,学習性能,モデルの安定性,およびカーネルパラメータ設定に対する堅牢性の観点から,元のSCNといくつかの典型的なカーネル手法を著しく上回っていることが明らかとなった。
関連論文リスト
- Deeper Insights into Learning Performance of Stochastic Configuration Networks [3.8719670789415925]
SCN(Configuration Networks)は、ランダム化されたアルゴリズムをインクリメンタル学習フレームワークに組み込む、ランダム化されたニューラルネットワークのクラスである。
SCNの学習性能に及ぼす監督機構の影響を包括的に分析する。
そこで本研究では,隠れ層の出力行列を評価する手法を提案する。
論文 参考訳(メタデータ) (2024-11-13T11:45:39Z) - Stability Analysis of Equivariant Convolutional Representations Through The Lens of Equivariant Multi-layered CKNs [0.0]
我々は、グループ同変カーネルネットワーク(CKN)を構築し、理論的に解析する。
本研究では, 微分同相作用下でのそのような同相CNNの安定性解析について検討する。
目標は、再現されたカーネルヒルベルト空間(RKHS)のレンズを通して、同値CNNの帰納バイアスの幾何学を分析することである。
論文 参考訳(メタデータ) (2024-08-08T07:31:22Z) - Fuzzy Recurrent Stochastic Configuration Networks for Industrial Data Analytics [3.8719670789415925]
本稿では,ファジィリカレント構成ネットワーク(F-RSCN)と呼ばれる新しいニューロファジィモデルを提案する。
提案したF-RSCNは,複数の貯留層によって構成され,各貯留層は高木・スゲノ・カン(TSK)ファジィ則に関連付けられている。
TSKファジィ推論システムをRCCNに統合することにより、F-RSCNは強力なファジィ推論能力を有し、学習と一般化の両面での音響性能を実現することができる。
論文 参考訳(メタデータ) (2024-07-06T01:40:31Z) - Latent Semantic Consensus For Deterministic Geometric Model Fitting [109.44565542031384]
我々はLSC(Latent Semantic Consensus)と呼ばれる効果的な方法を提案する。
LSCは、モデルフィッティング問題をデータポイントとモデル仮説に基づく2つの潜在意味空間に定式化する。
LSCは、一般的な多構造モデルフィッティングのために、数ミリ秒以内で一貫した、信頼性の高いソリューションを提供することができる。
論文 参考訳(メタデータ) (2024-03-11T05:35:38Z) - Orthogonal Stochastic Configuration Networks with Adaptive Construction
Parameter for Data Analytics [6.940097162264939]
ランダム性により、SCNは冗長で品質の低い近似線形相関ノードを生成する可能性が高まる。
機械学習の基本原理、すなわち、パラメータが少ないモデルでは、一般化が向上する。
本稿では,ネットワーク構造低減のために,低品質な隠れノードをフィルタする直交SCN(OSCN)を提案する。
論文 参考訳(メタデータ) (2022-05-26T07:07:26Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Optimal Rates for Averaged Stochastic Gradient Descent under Neural
Tangent Kernel Regime [50.510421854168065]
平均勾配勾配勾配は極小収束率が得られることを示す。
本稿では、ReLUネットワークのNTKで指定されたターゲット関数を最適収束速度で学習できることを示す。
論文 参考訳(メタデータ) (2020-06-22T14:31:37Z) - Multiplicative noise and heavy tails in stochastic optimization [62.993432503309485]
経験的最適化は現代の機械学習の中心であるが、その成功における役割はまだ不明である。
分散による離散乗法雑音のパラメータによく現れることを示す。
最新のステップサイズやデータを含む重要な要素について、詳細な分析を行い、いずれも最先端のニューラルネットワークモデルで同様の結果を示す。
論文 参考訳(メタデータ) (2020-06-11T09:58:01Z) - A Convex Parameterization of Robust Recurrent Neural Networks [3.2872586139884623]
リカレントニューラルネットワーク(Recurrent Neural Network, RNN)は、シーケンシャル・ツー・シーケンス・マップをモデル化するのによく用いられる非線形力学系のクラスである。
安定性とロバスト性を保証するRNNの凸集合を定式化する。
論文 参考訳(メタデータ) (2020-04-11T03:12:42Z) - Kernel and Rich Regimes in Overparametrized Models [69.40899443842443]
過度にパラメータ化された多層ネットワーク上の勾配勾配は、RKHSノルムではないリッチな暗黙バイアスを誘発できることを示す。
また、より複雑な行列分解モデルと多層非線形ネットワークに対して、この遷移を実証的に示す。
論文 参考訳(メタデータ) (2020-02-20T15:43:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。