論文の概要: Self-adaptive deep neural network: Numerical approximation to functions
and PDEs
- arxiv url: http://arxiv.org/abs/2109.02839v1
- Date: Tue, 7 Sep 2021 03:16:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-08 14:23:02.226420
- Title: Self-adaptive deep neural network: Numerical approximation to functions
and PDEs
- Title(参考訳): 自己適応型ディープニューラルネットワーク:関数とPDEへの数値近似
- Authors: Zhiqiang Cai, Jingshuang Chen, Min Liu
- Abstract要約: 与えられたタスクに対して最適なディープニューラルネットワークを設計するための自己適応アルゴリズムを提案する。
ANE法は、フォームトレイン、推定、拡張のループとして記述される。
ANE法は, 急激な遷移層を示す関数を学習するために, ほぼ最小限のNNを自動設計できることを実証した。
- 参考スコア(独自算出の注目度): 3.6525914200522656
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Designing an optimal deep neural network for a given task is important and
challenging in many machine learning applications. To address this issue, we
introduce a self-adaptive algorithm: the adaptive network enhancement (ANE)
method, written as loops of the form train, estimate and enhance. Starting with
a small two-layer neural network (NN), the step train is to solve the
optimization problem at the current NN; the step estimate is to compute a
posteriori estimator/indicators using the solution at the current NN; the step
enhance is to add new neurons to the current NN.
Novel network enhancement strategies based on the computed
estimator/indicators are developed in this paper to determine how many new
neurons and when a new layer should be added to the current NN. The ANE method
provides a natural process for obtaining a good initialization in training the
current NN; in addition, we introduce an advanced procedure on how to
initialize newly added neurons for a better approximation. We demonstrate that
the ANE method can automatically design a nearly minimal NN for learning
functions exhibiting sharp transitional layers as well as discontinuous
solutions of hyperbolic partial differential equations.
- Abstract(参考訳): 与えられたタスクに最適なディープニューラルネットワークを設計することは、多くの機械学習アプリケーションにおいて重要かつ困難である。
この問題に対処するために, 適応型ネットワーク拡張(ANE)方式を, フォームトレインのループとして記述し, 推定, 拡張する自己適応型アルゴリズムを提案する。
小さな2層ニューラルネットワーク(NN)から始めると、ステップトレインは現在のNNで最適化問題を解くこと、ステップ推定は現在のNNでソリューションを使用して後部推定器/指標を計算すること、ステップエンハンスメントは現在のNNに新しいニューロンを追加することである。
本稿では,新しいニューロンの数と,新しい層を現在のnnに追加すべき時期を決定するために,計算推定器/インジケータに基づく新しいネットワーク強化戦略を開発した。
ane法は、現在のnnのトレーニングにおいて適切な初期化を得るための自然なプロセスを提供し、さらに、新しく追加されたニューロンをより良い近似のために初期化する方法に関する高度な手順を導入する。
ane法は, 急な遷移層を示す関数や双曲偏微分方程式の不連続解を学習するために, ほぼ最小限のnnを自動設計できることを実証する。
関連論文リスト
- A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - FFNB: Forgetting-Free Neural Blocks for Deep Continual Visual Learning [14.924672048447338]
我々は、新しい忘れのないニューラルブロック(FFNB)に基づく連続学習のための動的ネットワークアーキテクチャを考案する。
FFNB機能を新しいタスクでトレーニングするには、以前のタスクのnull-スペースのパラメータを制約する新しいプロシージャを使用する。
論文 参考訳(メタデータ) (2021-11-22T17:23:34Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Dynamic Neural Diversification: Path to Computationally Sustainable
Neural Networks [68.8204255655161]
訓練可能なパラメータが制限された小さなニューラルネットワークは、多くの単純なタスクに対してリソース効率の高い候補となる。
学習過程において隠れた層内のニューロンの多様性を探索する。
ニューロンの多様性がモデルの予測にどのように影響するかを分析する。
論文 参考訳(メタデータ) (2021-09-20T15:12:16Z) - Self-Supervised Learning of Event-Based Optical Flow with Spiking Neural
Networks [3.7384509727711923]
ニューロモルフィックコンピューティングの大きな課題は、従来の人工ニューラルネットワーク(ANN)の学習アルゴリズムがスパイクニューラルネットワーク(SNN)に直接転送されないことである。
本稿では,イベントベースカメラ入力からの光フロー推定における自己教師型学習問題に着目した。
提案するANNとSNNの性能は,自己教師型で訓練された現在の最先端のANNと同等であることを示す。
論文 参考訳(メタデータ) (2021-06-03T14:03:41Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。