論文の概要: Smooth Mathematical Function from Compact Neural Networks
- arxiv url: http://arxiv.org/abs/2301.00181v1
- Date: Sat, 31 Dec 2022 11:33:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 13:50:37.453023
- Title: Smooth Mathematical Function from Compact Neural Networks
- Title(参考訳): コンパクトニューラルネットワークによる滑らかな数理関数
- Authors: I.K. Hong
- Abstract要約: NNは、非常に正確で、非常にスムーズな関数を生成します。
新しいアクティベーション関数,メタバッチ法,数値データの特徴,メタパラメータを用いたメタ拡張について述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This is paper for the smooth function approximation by neural networks (NN).
Mathematical or physical functions can be replaced by NN models through
regression. In this study, we get NNs that generate highly accurate and highly
smooth function, which only comprised of a few weight parameters, through
discussing a few topics about regression. First, we reinterpret inside of NNs
for regression; consequently, we propose a new activation function--integrated
sigmoid linear unit (ISLU). Then special charateristics of metadata for
regression, which is different from other data like image or sound, is
discussed for improving the performance of neural networks. Finally, the one of
a simple hierarchical NN that generate models substituting mathematical
function is presented, and the new batch concept ``meta-batch" which improves
the performance of NN several times more is introduced.
The new activation function, meta-batch method, features of numerical data,
meta-augmentation with metaparameters, and a structure of NN generating a
compact multi-layer perceptron(MLP) are essential in this study.
- Abstract(参考訳): 本稿では,ニューラルネットワーク(NN)によるスムーズな関数近似について述べる。
数学的あるいは物理的関数は回帰によってNNモデルに置き換えられる。
本研究では,数個の重みパラメータのみからなる高精度かつ高円滑な関数を生成するnnについて,回帰に関するいくつかの話題を論じた。
まず,nns内部を回帰的に再解釈し,新たな活性化関数統合型sgmoid linear unit (islu)を提案する。
次に、ニューラルネットワークの性能向上のために、画像や音などの他のデータとは異なる回帰メタデータの特別な特性について論じる。
最後に,数式関数に代わるモデルを生成する単純な階層的NNについて紹介し,NNの性能を何倍も向上させる新しいバッチ概念「メタバッチ」を紹介した。
本研究は, 活性化関数, メタバッチ法, 数値データの特徴, メタパラメータを用いたメタ拡張, コンパクト多層パーセプトロン(MLP)を生成するNNの構造について検討する。
関連論文リスト
- An Efficient Approach to Regression Problems with Tensor Neural Networks [5.345144592056051]
本稿では、非パラメトリック回帰問題に対処するテンソルニューラルネットワーク(TNN)を提案する。
TNNは従来のFeed-Forward Networks (FFN) や Radial Basis Function Networks (RBN) よりも優れた性能を示している。
このアプローチにおける重要な革新は、統計回帰とTNNフレームワーク内の数値積分の統合である。
論文 参考訳(メタデータ) (2024-06-14T03:38:40Z) - Gaussian Process Neural Additive Models [3.7969209746164325]
ランダムフーリエ特徴を用いたガウス過程の単一層ニューラルネットワーク構築を用いたニューラル付加モデル(NAM)の新たなサブクラスを提案する。
GP-NAMは凸目的関数と、特徴次元と線形に成長する訓練可能なパラメータの数が有利である。
GP-NAMは,パラメータ数を大幅に削減して,分類タスクと回帰タスクの両方において,同等あるいはより優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2024-02-19T20:29:34Z) - Neural Functional Transformers [99.98750156515437]
本稿では,ニューラルファンクショナルトランスフォーマー (NFT) と呼ばれる新しい変分同変量空間層を定義するために,アテンション機構を用いる。
NFTは重み空間の置換対称性を尊重し、注意の利点を取り入れ、複数の領域で顕著な成功を収めた。
Inr2Arrayは暗黙的ニューラル表現(INR)の重みから置換不変表現を計算する新しい方法である。
論文 参考訳(メタデータ) (2023-05-22T23:38:27Z) - How (Implicit) Regularization of ReLU Neural Networks Characterizes the
Learned Function -- Part II: the Multi-D Case of Two Layers with Random First
Layer [2.1485350418225244]
本稿では,ReLUアクティベーションを伴うランダム化した浅層NNの一般化挙動を,正確なマクロ解析により解析する。
RSNは、無限に多くの方向が考慮される一般化加法モデル(GAM)型回帰に対応することを示す。
論文 参考訳(メタデータ) (2023-03-20T21:05:47Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - Graph-adaptive Rectified Linear Unit for Graph Neural Networks [64.92221119723048]
グラフニューラルネットワーク(GNN)は、従来の畳み込みを非ユークリッドデータでの学習に拡張することで、目覚ましい成功を収めた。
本稿では,周辺情報を利用した新しいパラメトリックアクティベーション機能であるグラフ適応整流線形ユニット(GRELU)を提案する。
我々は,GNNのバックボーンと様々な下流タスクによって,プラグアンドプレイGRELU法が効率的かつ効果的であることを示す包括的実験を行った。
論文 参考訳(メタデータ) (2022-02-13T10:54:59Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Measuring Model Complexity of Neural Networks with Curve Activation
Functions [100.98319505253797]
本稿では,線形近似ニューラルネットワーク(LANN)を提案する。
ニューラルネットワークのトレーニングプロセスを実験的に検討し、オーバーフィッティングを検出する。
我々は、$L1$と$L2$正規化がモデルの複雑さの増加を抑制することを発見した。
論文 参考訳(メタデータ) (2020-06-16T07:38:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。