論文の概要: NINNs: Nudging Induced Neural Networks
- arxiv url: http://arxiv.org/abs/2203.07947v1
- Date: Tue, 15 Mar 2022 14:29:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-16 16:48:58.958193
- Title: NINNs: Nudging Induced Neural Networks
- Title(参考訳): NINN:看護誘発ニューラルネットワーク
- Authors: Harbir Antil, Rainald L\"ohner, Randy Price
- Abstract要約: ディープニューラルネットワーク(DNN)の精度を制御・改善するためのヌーディング誘導ニューラルネットワーク(NINN)と呼ばれる新しいアルゴリズム
NINNは、ネットワークの前方伝播にフィードバック制御項を追加することで機能する。
NINNに対して厳密な収束解析が確立されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: New algorithms called nudging induced neural networks (NINNs), to control and
improve the accuracy of deep neural networks (DNNs), are introduced. The NINNs
framework can be applied to almost all pre-existing DNNs, with forward
propagation, with costs comparable to existing DNNs. NINNs work by adding a
feedback control term to the forward propagation of the network. The feedback
term nudges the neural network towards a desired quantity of interest. NINNs
offer multiple advantages, for instance, they lead to higher accuracy when
compared with existing data assimilation algorithms such as nudging. Rigorous
convergence analysis is established for NINNs. The algorithmic and theoretical
findings are illustrated on examples from data assimilation and chemically
reacting flows.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)の精度を制御し改善する、ヌーディング誘導ニューラルネットワーク(NINN)と呼ばれる新しいアルゴリズムが導入されている。
NINNsフレームワークは、既存のDNNに匹敵するコストで、ほとんどすべての既存のDNNに適用できる。
NINNは、ネットワークの前方伝播にフィードバック制御項を追加することで機能する。
フィードバック項は、ニューラルネットワークを所望の量の関心に向ける。
ninn は、例えば、nudging のような既存のデータ同化アルゴリズムと比較した場合、高い精度をもたらす複数の利点がある。
NINNに対して厳密な収束解析が確立されている。
アルゴリズム的および理論的知見は、データ同化と化学反応流の例で示される。
関連論文リスト
- Optimal ANN-SNN Conversion with Group Neurons [39.14228133571838]
スパイキングニューラルネットワーク(SNN)は、有望な第3世代のニューラルネットワークとして登場した。
効果的な学習アルゴリズムの欠如は、SNNにとって依然として課題である。
我々はグループニューロン(GN)と呼ばれる新しいタイプのニューロンを紹介する。
論文 参考訳(メタデータ) (2024-02-29T11:41:12Z) - Harnessing Neuron Stability to Improve DNN Verification [42.65507402735545]
我々は最近提案されたDPLLベースの制約DNN検証手法の拡張であるVeriStableを提案する。
完全接続型フィードネットワーク(FNN)、畳み込み型ニューラルネットワーク(CNN)、残留型ネットワーク(ResNet)など、さまざまな課題のあるベンチマークにおいてVeriStableの有効性を評価する。
予備的な結果は、VeriStableは、VNN-COMPの第1および第2のパフォーマーである$alpha$-$beta$-CROWNやMN-BaBなど、最先端の検証ツールよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-01-19T23:48:04Z) - On Neural Networks as Infinite Tree-Structured Probabilistic Graphical
Models [47.91322568623835]
本稿では,ニューラルネットワークに対応する無限木構造PGMを構築することにより,革新的な解を提案する。
我々の研究は、DNNが前方伝播中に、この代替のPGM構造において正確であるPGMの近似を実行することを明らかにした。
論文 参考訳(メタデータ) (2023-05-27T21:32:28Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Learning Ability of Interpolating Deep Convolutional Neural Networks [28.437011792990347]
我々は,深層ニューラルネットワーク,深層畳み込みニューラルネットワーク(DCNN)の重要なファミリーの学習能力について検討する。
非補間DCNNに適切に定義された層を追加することで、非補間DCNNの良好な学習率を維持する補間DCNNが得られることを示す。
我々の研究は、過度に適合したDCNNの一般化の理論的検証を提供する。
論文 参考訳(メタデータ) (2022-10-25T17:22:31Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - Linear Leaky-Integrate-and-Fire Neuron Model Based Spiking Neural
Networks and Its Mapping Relationship to Deep Neural Networks [7.840247953745616]
スパイキングニューラルネットワーク(SNN)は、生物学的可視性や教師なし学習能力など、脳にインスパイアされた機械学習アルゴリズムである。
本稿では,リニアリーキー・インテグレート・アンド・ファイア・モデル(LIF/SNN)の生物学的パラメータとReLU-AN/Deep Neural Networks(DNN)のパラメータとの正確な数学的マッピングを確立する。
論文 参考訳(メタデータ) (2022-05-31T17:02:26Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Topological Measurement of Deep Neural Networks Using Persistent
Homology [0.7919213739992464]
ディープニューラルネットワーク(DNN)の内部表現は解読不能である。
持続的ホモロジー(PH)は、訓練されたDNNの複雑さを調べるために用いられた。
論文 参考訳(メタデータ) (2021-06-06T03:06:15Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。