論文の概要: An Interpretable Constructive Algorithm for Incremental Random Weight
Neural Networks and Its Application
- arxiv url: http://arxiv.org/abs/2307.00185v1
- Date: Sat, 1 Jul 2023 01:07:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-05 17:33:25.150373
- Title: An Interpretable Constructive Algorithm for Incremental Random Weight
Neural Networks and Its Application
- Title(参考訳): インクリメンタルランダム重みニューラルネットワークの解釈可能な構成アルゴリズムとその応用
- Authors: Jing Nan, Wei Dai, Guan Yuan, and Ping Zhou
- Abstract要約: 本稿では,幾何的情報制約を伴う解釈可能な構成アルゴリズム(ICA)を提案する。
ICAは、モデリング速度、モデル精度、モデルネットワーク構造において、他の構築アルゴリズムよりも優れている。
- 参考スコア(独自算出の注目度): 3.725257880268641
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Incremental random weight neural networks (IRWNNs) have gained attention in
view of its easy implementation and fast learning. However, a significant
drawback of IRWNNs is that the elationship between the hidden parameters
(node)and the residual error (model performance) is difficult to be
interpreted. To address the above issue, this article proposes an interpretable
constructive algorithm (ICA) with geometric information constraint. First,
based on the geometric relationship between the hidden parameters and the
residual error, an interpretable geometric information constraint is proposed
to randomly assign the hidden parameters. Meanwhile, a node pool strategy is
employed to obtain hidden parameters that is more conducive to convergence from
hidden parameters satisfying the proposed constraint. Furthermore, the
universal approximation property of the ICA is proved. Finally, a lightweight
version of ICA is presented for large-scale data modeling tasks. Experimental
results on six benchmark datasets and a numerical simulation dataset
demonstrate that the ICA outperforms other constructive algorithms in terms of
modeling speed, model accuracy, and model network structure. Besides, two
practical industrial application case are used to validate the effectiveness of
ICA in practical applications.
- Abstract(参考訳): インクリメンタルランダムウェイトニューラルネットワーク(IRWNN)は、実装の容易さと学習の速さから注目されている。
しかし、irwnnsの重大な欠点は、隠れたパラメータ(ノード)と残差エラー(モデル性能)の間の溶出が解釈が難しいことである。
本稿では,幾何学的情報に制約のある解釈可能構成型アルゴリズム(ica)を提案する。
まず,隠れパラメータと残差誤差との幾何学的関係に基づいて,解釈可能な幾何情報制約を提案し,隠れパラメータをランダムに割り当てる。
一方、ノードプール戦略を用いて、提案した制約を満たす隠れパラメータから収束しやすい隠れパラメータを求める。
さらに、ICAの普遍近似特性が証明される。
最後に、ICAの軽量バージョンが大規模データモデリングタスクのために提示される。
6つのベンチマークデータセットと数値シミュレーションデータセットの実験結果は、icaがモデリング速度、モデル精度、モデルネットワーク構造の観点から他の構成的アルゴリズムよりも優れていることを示している。
また,2つの実用工業応用事例を用いて,ICAの有効性を検証した。
関連論文リスト
- Steinmetz Neural Networks for Complex-Valued Data [23.80312814400945]
並列実値デッツワークと結合出力からなるDNNを用いて複素値データを処理する新しい手法を提案する。
提案するアーキテクチャのクラスは、Steinmetz Neural Networksと呼ばれ、多視点学習を利用して、潜在空間内でより解釈可能な表現を構築する。
提案手法は,これらのネットワークがベンチマーク・データセットや合成例で実現した改良性能と付加雑音を示す数値実験である。
論文 参考訳(メタデータ) (2024-09-16T08:26:06Z) - Unveiling the Power of Sparse Neural Networks for Feature Selection [60.50319755984697]
スパースニューラルネットワーク(SNN)は、効率的な特徴選択のための強力なツールとして登場した。
動的スパーストレーニング(DST)アルゴリズムで訓練されたSNNは、平均して50%以上のメモリと55%以上のFLOPを削減できることを示す。
以上の結果から,DSTアルゴリズムで訓練したSNNによる特徴選択は,平均して50ドル以上のメモリと55%のFLOPを削減できることがわかった。
論文 参考訳(メタデータ) (2024-08-08T16:48:33Z) - Set-based Neural Network Encoding Without Weight Tying [91.37161634310819]
本稿では,ネットワーク特性予測のためのニューラルネットワーク重み符号化手法を提案する。
我々のアプローチは、混合アーキテクチャのモデル動物園でニューラルネットワークを符号化することができる。
ニューラルネットワークのプロパティ予測には,クロスデータセットとクロスアーキテクチャという,2つの新しいタスクを導入する。
論文 参考訳(メタデータ) (2023-05-26T04:34:28Z) - Deep Neural Networks as Complex Networks [1.704936863091649]
我々は、重み付きグラフとしてディープニューラルネットワーク(DNN)を表現するために複雑ネットワーク理論を用いる。
我々は、DNNを動的システムとして研究するためのメトリクスを導入し、その粒度は、重みから神経細胞を含む層まで様々である。
我々の測定値が低性能ネットワークと高パフォーマンスネットワークを区別していることが示される。
論文 参考訳(メタデータ) (2022-09-12T16:26:04Z) - Linear Leaky-Integrate-and-Fire Neuron Model Based Spiking Neural
Networks and Its Mapping Relationship to Deep Neural Networks [7.840247953745616]
スパイキングニューラルネットワーク(SNN)は、生物学的可視性や教師なし学習能力など、脳にインスパイアされた機械学習アルゴリズムである。
本稿では,リニアリーキー・インテグレート・アンド・ファイア・モデル(LIF/SNN)の生物学的パラメータとReLU-AN/Deep Neural Networks(DNN)のパラメータとの正確な数学的マッピングを確立する。
論文 参考訳(メタデータ) (2022-05-31T17:02:26Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - Deep Neural Networks and PIDE discretizations [2.4063592468412276]
畳み込みニューラルネットワーク(CNN)の安定性と視野問題に対処するニューラルネットワークを提案する。
本稿では,大域重み付きラプラス作用素,分数ラプラス作用素,分数逆ラプラス作用素に関連する積分型空間非局所作用素を提案する。
自律運転における画像分類データセットとセマンティックセグメンテーションタスクのベンチマーク上で,提案したニューラルネットワークの有効性を検証した。
論文 参考訳(メタデータ) (2021-08-05T08:03:01Z) - Learning Autonomy in Management of Wireless Random Networks [102.02142856863563]
本稿では,任意の数のランダム接続ノードを持つ無線ネットワークにおいて,分散最適化タスクに取り組む機械学習戦略を提案する。
我々は,ネットワークトポロジとは無関係に,前方および後方に計算を行う分散メッセージパスニューラルネットワーク(DMPNN)と呼ばれる,柔軟な深層ニューラルネットワーク形式を開発した。
論文 参考訳(メタデータ) (2021-06-15T09:03:28Z) - Explore the Knowledge contained in Network Weights to Obtain Sparse
Neural Networks [2.649890751459017]
本稿では,ニューラルネットワーク(NN)における疎結合層の自動獲得のための新しい学習手法を提案する。
タスクニューラルネットワーク(TNN)の構造を最適化するためにスイッチングニューラルネットワーク(SNN)を設計する。
論文 参考訳(メタデータ) (2021-03-26T11:29:40Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。