論文の概要: Differential radial basis function network for sequence modelling
- arxiv url: http://arxiv.org/abs/2010.06178v1
- Date: Tue, 13 Oct 2020 04:36:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 00:13:34.601113
- Title: Differential radial basis function network for sequence modelling
- Title(参考訳): シーケンスモデリングのための微分ラジアル基底関数ネットワーク
- Authors: Kojo Sarfo Gyamfi, James Brusey, Elena Gaura
- Abstract要約: 本稿では,RBF-DiffNetと呼ばれる差動ラジアル基底関数(RBF)ネットワークを提案する。
我々は,ロジスティックマップのカオス時空とウォルマートが提供する30の実世界の時空上で,差分RBFネットワークを実験的に検証した。
- 参考スコア(独自算出の注目度): 7.347989843033033
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a differential radial basis function (RBF) network termed
RBF-DiffNet -- whose hidden layer blocks are partial differential equations
(PDEs) linear in terms of the RBF -- to make the baseline RBF network robust to
noise in sequential data. Assuming that the sequential data derives from the
discretisation of the solution to an underlying PDE, the differential RBF
network learns constant linear coefficients of the PDE, consequently
regularising the RBF network by following modified backward-Euler updates. We
experimentally validate the differential RBF network on the logistic map
chaotic timeseries as well as on 30 real-world timeseries provided by Walmart
in the M5 forecasting competition. The proposed model is compared with the
normalised and unnormalised RBF networks, ARIMA, and ensembles of multilayer
perceptrons (MLPs) and recurrent networks with long short-term memory (LSTM)
blocks. From the experimental results, RBF-DiffNet consistently shows a marked
reduction over the baseline RBF network in terms of the prediction error (e.g.,
26% reduction in the root mean squared scaled error on the M5 dataset);
RBF-DiffNet also shows a comparable performance to the LSTM ensemble at less
than one-sixteenth the LSTM computational time. Our proposed network
consequently enables more accurate predictions -- in the presence of
observational noise -- in sequence modelling tasks such as timeseries
forecasting that leverage the model interpretability, fast training, and
function approximation properties of the RBF network.
- Abstract(参考訳): 本稿では,RBF-DiffNet と呼ばれる,RBF-DiffNet と呼ばれる差動放射基底関数(RBF) を,RBF の項で線形に隠蔽するネットワークを提案し,そのベースライン RBF ネットワークを逐次データ中のノイズに頑健にする。
逐次データが解の離散化から基礎となるPDEに導かれると仮定すると、微分RBFネットワークはPDEの定数線形係数を学習し、修正された後方・オイラー更新に従ってRBFネットワークを正規化する。
我々は,M5予測競争において,ロジスティックマップのカオス時空とウォルマートが提供する30の実世界の時空上で,差分RBFネットワークを実験的に検証した。
提案手法は,複数層パーセプトロン (MLP) と長期メモリ (LSTM) ブロックのアンサンブルの正規化および非正規化されたRBFネットワーク,ARIMA,およびアンサンブルと比較する。
実験結果から、RBF-DiffNetは予測誤差(例えば、M5データセットにおけるルート平均26%のスケール誤差の削減)の観点から、ベースラインのRBFネットワークを常に顕著に減少させ、また、RBF-DiffNetはLSTMの計算時間の6分の1未満でLSTMアンサンブルと同等の性能を示した。
提案するネットワークは,RBFネットワークのモデル解釈性,高速トレーニング,関数近似特性を利用した時系列予測などのシーケンスモデリングタスクにおいて,観測ノイズの存在下でより正確な予測を可能にする。
関連論文リスト
- Time Series Imputation with Multivariate Radial Basis Function Neural Network [1.6804613362826175]
放射基底関数ニューラルネットワーク(RBFNN)に基づく時系列計算モデルを提案する。
我々の計算モデルは、タイムスタンプから局所情報を学習し、連続関数を生成する。
我々はMIM-RBFNNが生成した連続関数を用いたMIRNN-CF(Missing Value Imputation Recurrent Neural Network)と呼ばれる拡張を提案する。
論文 参考訳(メタデータ) (2024-07-24T07:02:16Z) - Adaptive Multilevel Neural Networks for Parametric PDEs with Error Estimation [0.0]
ニューラルネットワークアーキテクチャは高次元パラメータ依存偏微分方程式(pPDE)を解くために提示される
モデルデータのパラメータを対応する有限要素解にマッピングするために構築される。
適応有限要素法(AFEM)で生成される粗いグリッド解と一連の補正を出力する。
論文 参考訳(メタデータ) (2024-03-19T11:34:40Z) - Inferring Dynamic Networks from Marginals with Iterative Proportional Fitting [57.487936697747024]
実世界のデータ制約から生じる一般的なネットワーク推論問題は、その時間集約された隣接行列から動的ネットワークを推論する方法である。
本稿では,ネットワーク構造に対する最小限の変更の下でIPFの収束を保証するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-28T20:24:56Z) - Optimization Guarantees of Unfolded ISTA and ADMM Networks With Smooth
Soft-Thresholding [57.71603937699949]
我々は,学習エポックの数の増加とともに,ほぼゼロに近いトレーニング損失を達成するための最適化保証について検討した。
トレーニングサンプル数に対する閾値は,ネットワーク幅の増加とともに増加することを示す。
論文 参考訳(メタデータ) (2023-09-12T13:03:47Z) - Joint Bayesian Inference of Graphical Structure and Parameters with a
Single Generative Flow Network [59.79008107609297]
本稿では,ベイジアンネットワークの構造上の結合後部を近似する手法を提案する。
サンプリングポリシが2フェーズプロセスに従う単一のGFlowNetを使用します。
パラメータは後部分布に含まれるため、これは局所確率モデルに対してより柔軟である。
論文 参考訳(メタデータ) (2023-05-30T19:16:44Z) - Bayesian Structure Learning with Generative Flow Networks [85.84396514570373]
ベイズ構造学習では、データから有向非巡回グラフ(DAG)上の分布を推定することに興味がある。
近年,ジェネレーティブ・フロー・ネットワーク(GFlowNets)と呼ばれる確率モデルのクラスが,ジェネレーティブ・モデリングの一般的なフレームワークとして紹介されている。
DAG-GFlowNetと呼ばれる本手法は,DAGよりも後方の正確な近似を提供する。
論文 参考訳(メタデータ) (2022-02-28T15:53:10Z) - Patch Based Transformation for Minimum Variance Beamformer Image
Approximation Using Delay and Sum Pipeline [0.0]
本研究では,空間内の固定領域に対する遅延補償無線周波数(RF)パッチをU-Netアーキテクチャによって変換するパッチレベルU-Netベースニューラルネットワークを提案する。
提案手法は、ネットワークのパラメータにおけるMVDR手法によって行われるデータ駆動重み適応を考慮に入れた、RFデータ空間の非線形変換を扱う。
論文 参考訳(メタデータ) (2021-10-19T19:36:59Z) - Few-shot time series segmentation using prototype-defined infinite
hidden Markov models [3.527894538672585]
フレキシブルなグラフィカルモデルに基づく非定常逐次データの解析を行うためのフレームワークを提案する。
RBFネットワークはプロトタイプによって効率的に特定でき、複雑な非定常パターンを表現できることを示す。
脳波データからの自動発作検出などの生体信号処理アプリケーションにおいて,本フレームワークの有用性を実証した。
論文 参考訳(メタデータ) (2021-02-07T19:02:33Z) - Flow Field Reconstructions with GANs based on Radial Basis Functions [19.261773760183196]
2つの放射状基底関数に基づくGAN(RBF-GANとRBFC-GAN)が回帰と生成のために提案されている。
平均二乗誤差 (MSE) と平均二乗誤差 (MSPE) の両方を用いて, RBF-GAN と RBFC-GAN の性能は GANs/cGAN よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-08-11T11:45:57Z) - Network Diffusions via Neural Mean-Field Dynamics [52.091487866968286]
本稿では,ネットワーク上の拡散の推論と推定のための新しい学習フレームワークを提案する。
本研究の枠組みは, ノード感染確率の正確な進化を得るために, モリ・ズワンジッヒ形式から導かれる。
我々のアプローチは、基礎となる拡散ネットワークモデルのバリエーションに対して多用途で堅牢である。
論文 参考訳(メタデータ) (2020-06-16T18:45:20Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。