論文の概要: Multi-Valued Neural Networks I A Multi-Valued Associative Memory
- arxiv url: http://arxiv.org/abs/2302.11909v1
- Date: Thu, 23 Feb 2023 10:32:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-24 15:44:14.706998
- Title: Multi-Valued Neural Networks I A Multi-Valued Associative Memory
- Title(参考訳): 多値ニューラルネットワークi : 多値連想メモリ
- Authors: Dmitry Maximov, Vladimir I. Goncharenko, Yury S. Legovich
- Abstract要約: 本稿では,数を持たないネットワークの概念を導入し,その特性を調査し,多値の場合の学習アルゴリズムを提案する。
多値ニューラルネットワークでは、全ての変数は数ではないが、格子の要素や部分集合、すなわちこれらはすべて部分的に順序づけられている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A new concept of a multi-valued associative memory is introduced,
generalizing a similar one in fuzzy neural networks. We expand the results on
fuzzy associative memory with thresholds, to the case of a multi-valued one: we
introduce the novel concept of such a network without numbers, investigate its
properties, and give a learning algorithm in the multi-valued case. We
discovered conditions under which it is possible to store given pairs of
network variable patterns in such a multi-valued associative memory. In the
multi-valued neural network, all variables are not numbers, but elements or
subsets of a lattice, i.e., they are all only partially-ordered. Lattice
operations are used to build the network output by inputs. In this paper, the
lattice is assumed to be Brouwer and determines the implication used, together
with other lattice operations, to determine the neural network output. We gave
the example of the network use to classify aircraft/spacecraft trajectories.
- Abstract(参考訳): 多値連想メモリの新しい概念を導入し、ファジィニューラルネットワークで類似のメモリを一般化した。
我々は、ファジィ連想記憶を閾値で拡張し、数値のないネットワークの概念を導入し、その特性を調べ、多値の場合の学習アルゴリズムを提供する。
我々は、そのような多値連想メモリに与えられたネットワーク変数パターンのペアを格納できる条件を発見した。
多値ニューラルネットワークでは、全ての変数は数ではなく、格子の要素や部分集合、すなわちこれらはすべて部分的に順序づけられている。
格子演算は入力によるネットワーク出力を構築するために使用される。
本稿では、格子がブラウワーであると仮定し、他の格子演算とともに使用する意味を決定し、ニューラルネットワークの出力を決定する。
航空機・航空機の軌道を分類するネットワークの例を示した。
関連論文リスト
- Multi-Neuron Representations of Hierarchical Concepts in Spiking Neural Networks [0.0]
階層的概念が階層型ニューラルネットワークの3つのタイプでどのように表現できるかを説明する。
目的は、概念に関する部分的な情報が提示されたときや、ネットワーク内のいくつかのニューロンが失敗したときの認識を支援することである。
論文 参考訳(メタデータ) (2024-01-09T15:56:43Z) - Codebook Features: Sparse and Discrete Interpretability for Neural
Networks [43.06828312515959]
ニューラルネットワークが、疎く、離散的で、より解釈可能な隠された状態を持つように訓練できるかどうかを探る。
コードブックの特徴は、各層にベクトル量子化ボトルネックを持つニューラルネットワークを微調整することによって生成される。
ニューラルネットワークは、パフォーマンスをわずかに低下させるだけで、この極端なボトルネックの下で動作できることがわかりました。
論文 参考訳(メタデータ) (2023-10-26T08:28:48Z) - Memorization with neural nets: going beyond the worst case [5.662924503089369]
実際には、ディープニューラルネットワークはトレーニングデータを簡単に補間できることが多い。
しかし、実世界のデータについては、暗記能力によって提案されるよりもネットワークサイズが小さいような良質な構造の存在を直感的に期待する。
2つのクラスを持つ固定有限データセットを与えられた場合、高い確率で3層ニューラルネットワークを時間内に補間する単純なランダム化アルゴリズムを導入する。
論文 参考訳(メタデータ) (2023-09-30T10:06:05Z) - Multilayer Multiset Neuronal Networks -- MMNNs [55.2480439325792]
本研究は,2層以上の類似性ニューロンを組み込んだ多層神経回路網について述べる。
また,回避すべき画像領域に割り当てられる反プロトタイプ点の利用についても検討した。
論文 参考訳(メタデータ) (2023-08-28T12:55:13Z) - Exploring the Approximation Capabilities of Multiplicative Neural
Networks for Smooth Functions [9.936974568429173]
対象関数のクラスは、一般化帯域制限関数とソボレフ型球である。
以上の結果から、乗法ニューラルネットワークは、これらの関数をはるかに少ない層とニューロンで近似できることを示した。
これらの結果は、乗法ゲートが標準フィードフォワード層より優れ、ニューラルネットワーク設計を改善する可能性があることを示唆している。
論文 参考訳(メタデータ) (2023-01-11T17:57:33Z) - Measures of Information Reflect Memorization Patterns [53.71420125627608]
異なるニューロンの活性化パターンの多様性は、モデル一般化と記憶の反映であることを示す。
重要なことは、情報組織が記憶の2つの形態を指していることである。
論文 参考訳(メタデータ) (2022-10-17T20:15:24Z) - Gluing Neural Networks Symbolically Through Hyperdimensional Computing [8.209945970790741]
ニューラルネットワークの出力信号の最終的な分類を符号化するためにバイナリハイパーベクタを用いるという概念について検討する。
これにより、複数のニューラルネットワークが協力して問題を解決することができ、オーバーヘッドは少なくなる。
これは、非常に少ないオーバーヘッドを使用しながら、芸術の状態を上回り、あるいはそれと同等であることがわかった。
論文 参考訳(メタデータ) (2022-05-31T04:44:02Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - Redundant representations help generalization in wide neural networks [71.38860635025907]
様々な最先端の畳み込みニューラルネットワークの最後に隠された層表現について検討する。
最後に隠された表現が十分に広ければ、そのニューロンは同一の情報を持つグループに分裂し、統計的に独立したノイズによってのみ異なる傾向にある。
論文 参考訳(メタデータ) (2021-06-07T10:18:54Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z) - Reservoir Memory Machines as Neural Computers [70.5993855765376]
微分可能なニューラルネットワークは、干渉することなく明示的なメモリで人工ニューラルネットワークを拡張する。
我々は、非常に効率的に訓練できるモデルを用いて、微分可能なニューラルネットワークの計算能力を実現する。
論文 参考訳(メタデータ) (2020-09-14T12:01:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。