論文の概要: Transmission Neural Networks: From Virus Spread Models to Neural
Networks
- arxiv url: http://arxiv.org/abs/2208.03616v1
- Date: Sun, 7 Aug 2022 01:56:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-09 14:29:39.843449
- Title: Transmission Neural Networks: From Virus Spread Models to Neural
Networks
- Title(参考訳): トランスミッションニューラルネットワーク:ウイルス拡散モデルからニューラルネットワークへ
- Authors: Shuang Gao and Peter E. Caines
- Abstract要約: この研究は、ネットワーク上に広がるウイルスのモデルと、同等のニューラルネットワーク表現を結びつける。
本稿では,アクティベーション関数を主にリンクに関連付けるトランスミッションニューラルネットワーク(TransNN)と呼ばれる新しいニューラルネットワークアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 0.8566457170664925
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work connects models for virus spread on networks with their equivalent
neural network representations. Based on this connection, we propose a new
neural network architecture, called Transmission Neural Networks (TransNNs)
where activation functions are primarily associated with links and are allowed
to have different activation levels. Furthermore, this connection leads to the
discovery and the derivation of three new activation functions with tunable or
trainable parameters. Moreover, we prove that TransNNs with a single hidden
layer and a fixed non-zero bias term are universal function approximators.
Finally, we present new fundamental derivations of continuous time epidemic
network models based on TransNNs.
- Abstract(参考訳): この研究は、ネットワーク上に広がるウイルスのモデルと、同等のニューラルネットワーク表現を結びつける。
この接続に基づいて、アクティベーション関数が主にリンクと関連付けられ、異なるアクティベーションレベルを持つことができるTransfer Neural Networks(TransNN)と呼ばれる新しいニューラルネットワークアーキテクチャを提案する。
さらに、この接続は、チューナブルまたはトレーニング可能なパラメータを持つ3つの新しいアクティベーション関数の発見と導出につながる。
さらに、単一の隠蔽層と固定非ゼロバイアス項を持つTransNNが普遍関数近似器であることを証明した。
最後に,TransNNに基づく連続時間流行ネットワークモデルの基本的導出について述べる。
関連論文リスト
- How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Connected Hidden Neurons (CHNNet): An Artificial Neural Network for
Rapid Convergence [0.6218519716921521]
我々は,同じ隠蔽層に隠されたニューロンが相互に相互に結合し,急速に収束する,より堅牢な人工知能ニューラルネットワークモデルを提案する。
深層ネットワークにおける提案モデルの実験研究により,従来のフィードフォワードニューラルネットワークと比較して,モデルが顕著に収束率を上昇させることを示した。
論文 参考訳(メタデータ) (2023-05-17T14:00:38Z) - Exploring the Approximation Capabilities of Multiplicative Neural
Networks for Smooth Functions [9.936974568429173]
対象関数のクラスは、一般化帯域制限関数とソボレフ型球である。
以上の結果から、乗法ニューラルネットワークは、これらの関数をはるかに少ない層とニューロンで近似できることを示した。
これらの結果は、乗法ゲートが標準フィードフォワード層より優れ、ニューラルネットワーク設計を改善する可能性があることを示唆している。
論文 参考訳(メタデータ) (2023-01-11T17:57:33Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - Fourier Neural Networks for Function Approximation [2.840363325289377]
ニューラルネットワークが普遍近似器であることは広く証明されている。
特に、狭いニューラルネットワークが、ディープニューラルネットワークによって実装されている関数を近似するために、ネットワークは指数関数的に多数のニューロンを取ることが証明されている。
論文 参考訳(メタデータ) (2021-10-21T09:30:26Z) - Deep Kronecker neural networks: A general framework for neural networks
with adaptive activation functions [4.932130498861987]
我々は,適応的アクティベーション機能を持つニューラルネットワークの汎用フレームワークとして,新しいタイプのニューラルネットワークKronecker Neural Network(KNN)を提案する。
適切な条件下では、KNNはフィードフォワードネットワークによる損失よりも早く損失を減少させる。
論文 参考訳(メタデータ) (2021-05-20T04:54:57Z) - On reaction network implementations of neural networks [0.0]
本稿では,(フィードフォワード)ニューラルネットワークの実装に決定論的にモデル化された化学反応ネットワークの利用について述べる。
ニューラルネットワークのある種の反応ネットワーク実装に付随する常微分方程式(ODE)が望ましい性質を持つことを示す。
論文 参考訳(メタデータ) (2020-10-26T02:37:26Z) - Exploiting Heterogeneity in Operational Neural Networks by Synaptic
Plasticity [87.32169414230822]
最近提案されたネットワークモデルであるオペレーショナルニューラルネットワーク(ONN)は、従来の畳み込みニューラルネットワーク(CNN)を一般化することができる。
本研究では, 生体ニューロンにおける本質的な学習理論を示すSynaptic Plasticityパラダイムに基づいて, ネットワークの隠蔽ニューロンに対する最強演算子集合の探索に焦点をあてる。
高難易度問題に対する実験結果から、神経細胞や層が少なくても、GISベースのONNよりも優れた学習性能が得られることが示された。
論文 参考訳(メタデータ) (2020-08-21T19:03:23Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Flexible Transmitter Network [84.90891046882213]
現在のニューラルネットワークはMPモデルに基づいて構築されており、通常はニューロンを他のニューロンから受信した信号の実際の重み付け集約上での活性化関数の実行として定式化する。
本稿では,フレキシブル・トランスミッタ(FT)モデルを提案する。
本稿では、最も一般的な完全接続型フィードフォワードアーキテクチャ上に構築された、フレキシブルトランスミッタネットワーク(FTNet)について述べる。
論文 参考訳(メタデータ) (2020-04-08T06:55:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。