論文の概要: Random Projection Neural Networks of Best Approximation: Convergence
theory and practical applications
- arxiv url: http://arxiv.org/abs/2402.11397v1
- Date: Sat, 17 Feb 2024 22:40:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 21:33:53.717550
- Title: Random Projection Neural Networks of Best Approximation: Convergence
theory and practical applications
- Title(参考訳): 最適近似のランダム射影ニューラルネットワーク:収束理論とその応用
- Authors: Gianluca Fabiani
- Abstract要約: RPNNは、内部の重みとバイアスを事前に決めて固定し、計算効率を提供する。
このようなRPNNの任意の族に対して、無限に微分可能な関数を近似する際に指数収束率を示す外部重みの選択が存在することを実証する。
その結果、RPNNはRegendre Polynomialsのような確立した手法に匹敵する性能を示し、効率的かつ正確な関数近似の可能性を強調した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We investigate the concept of Best Approximation for Feedforward Neural
Networks (FNN) and explore their convergence properties through the lens of
Random Projection (RPNNs). RPNNs have predetermined and fixed, once and for
all, internal weights and biases, offering computational efficiency. We
demonstrate that there exists a choice of external weights, for any family of
such RPNNs, with non-polynomial infinitely differentiable activation functions,
that exhibit an exponential convergence rate when approximating any infinitely
differentiable function. For illustration purposes, we test the proposed
RPNN-based function approximation, with parsimoniously chosen basis functions,
across five benchmark function approximation problems. Results show that RPNNs
achieve comparable performance to established methods such as Legendre
Polynomials, highlighting their potential for efficient and accurate function
approximation.
- Abstract(参考訳): 本稿では、フィードフォワードニューラルネットワーク(FNN)の最適近似の概念を考察し、ランダム投影(RPNN)のレンズによる収束特性について検討する。
RPNNは、内部の重みとバイアスを事前に決めて固定し、計算効率を提供する。
我々は,非多項的無限微分可能活性化関数を持つrpnn群に対して,任意の無限微分可能関数を近似するときに指数収束率を示す外部重みの選択肢が存在することを実証する。
図示目的のために,提案したRPNN関数近似を5つのベンチマーク関数近似問題に比較検討した。
その結果、RPNNはRegendre Polynomialsのような確立した手法に匹敵する性能を示し、効率的かつ正確な関数近似の可能性を強調した。
関連論文リスト
- Polynomial-Augmented Neural Networks (PANNs) with Weak Orthogonality Constraints for Enhanced Function and PDE Approximation [22.689531776611084]
現在拡張されたニューラルネットワーク(PANN)
本稿では、ディープニューラルネットワーク(DNN)と近似を組み合わせた新しい機械学習アーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-06-04T14:06:15Z) - RoPINN: Region Optimized Physics-Informed Neural Networks [66.38369833561039]
物理インフォームドニューラルネットワーク(PINN)は偏微分方程式(PDE)の解法として広く応用されている。
本稿では,地域最適化としての新たな訓練パラダイムを提案し,理論的に検討する。
実践的なトレーニングアルゴリズムであるRerea Optimized PINN(RoPINN)は、この新しいパラダイムからシームレスに派生している。
論文 参考訳(メタデータ) (2024-05-23T09:45:57Z) - Probabilistic Neural Networks (PNNs) for Modeling Aleatoric Uncertainty
in Scientific Machine Learning [2.348041867134616]
本稿では,確率論的ニューラルネットワーク(PNN)を用いてアレータティック不確実性をモデル化する。
PNNはターゲット変数の確率分布を生成し、回帰シナリオにおける予測平均と間隔の両方を決定できる。
実世界の科学機械学習の文脈では、PNNはR2乗のスコアが0.97に近づき、その予測間隔は0.80に近い高い相関係数を示す。
論文 参考訳(メタデータ) (2024-02-21T17:15:47Z) - Feature Mapping in Physics-Informed Neural Networks (PINNs) [1.9819034119774483]
本研究では, Conjugate Kernel と Neural Tangent Kernel を限定した特徴マッピング層を用いた PINN の訓練力学について検討する。
より優れた代替として,条件付き正定値ラジアル基底関数を提案する。
論文 参考訳(メタデータ) (2024-02-10T13:51:09Z) - Promises and Pitfalls of the Linearized Laplace in Bayesian Optimization [73.80101701431103]
線形化ラプラス近似(LLA)はベイズニューラルネットワークの構築に有効で効率的であることが示されている。
ベイズ最適化におけるLLAの有用性について検討し,その性能と柔軟性を強調した。
論文 参考訳(メタデータ) (2023-04-17T14:23:43Z) - Error convergence and engineering-guided hyperparameter search of PINNs:
towards optimized I-FENN performance [0.0]
PINNコンポーネントの2つの重要な側面に着目し,I-FENNの厳格さと性能を向上させる。
本稿では,新しい総合的パフォーマンス指標のセットに基づく体系的な数値的アプローチを提案する。
提案された分析は、科学と工学の他の応用にも直接拡張することができる。
論文 参考訳(メタデータ) (2023-03-03T17:39:06Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Equivariant Neural Network for Factor Graphs [83.26543234955855]
因子同変ニューラルネットワーク(FE-NBP)と因子同変グラフニューラルネットワーク(FE-GNN)の2つの推論モデルを提案する。
FE-NBPは小さなデータセットで最先端のパフォーマンスを達成する一方、FE-GNNは大規模なデータセットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-09-29T06:54:04Z) - UNIPoint: Universally Approximating Point Processes Intensities [125.08205865536577]
学習可能な関数のクラスが任意の有効な強度関数を普遍的に近似できることを示す。
ニューラルポイントプロセスモデルであるUNIPointを実装し,各イベントの基底関数の和をパラメータ化するために,リカレントニューラルネットワークを用いた。
論文 参考訳(メタデータ) (2020-07-28T09:31:56Z) - Supervised Learning for Non-Sequential Data: A Canonical Polyadic
Decomposition Approach [85.12934750565971]
特徴相互作用の効率的なモデリングは、非順序的タスクに対する教師あり学習の基盤となる。
この問題を緩和するため、モデルパラメータをテンソルとして暗黙的に表現することが提案されている。
表現性を向上するため,任意の高次元特徴ベクトルに特徴写像を適用できるようにフレームワークを一般化する。
論文 参考訳(メタデータ) (2020-01-27T22:38:40Z) - The gap between theory and practice in function approximation with deep
neural networks [2.969705152497174]
ディープラーニング(DL)は、意思決定プロセスが現実世界のデータに基づいてトレーニングされたディープニューラルネットワーク(DNN)によって自動化されているため、業界を変革している。
そこで我々は,実際にDNNを検証するための計算フレームワークを導入し,これらの問題に関して経験的性能の研究に利用した。
論文 参考訳(メタデータ) (2020-01-16T20:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。