論文の概要: Vector Symbolic Finite State Machines in Attractor Neural Networks
- arxiv url: http://arxiv.org/abs/2212.01196v1
- Date: Fri, 2 Dec 2022 14:23:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 16:23:45.263338
- Title: Vector Symbolic Finite State Machines in Attractor Neural Networks
- Title(参考訳): トラクタニューラルネットワークにおけるベクトル記号有限状態機械
- Authors: Madison Cotteret, Hugh Greatorex, Martin Ziegler, Elisabetta Chicca
- Abstract要約: 本研究では,アトラクタネットワークが任意の有限状態マシンを実装可能であることを示す。
モデルが不正確でノイズの多い重み付けに頑健であることを示し、高密度だが信頼性の低いデバイスによる実装の第一候補となる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Hopfield attractor networks are robust distributed models of human memory. We
propose construction rules such that an attractor network may implement an
arbitrary finite state machine (FSM), where states and stimuli are represented
by high-dimensional random bipolar vectors, and all state transitions are
enacted by the attractor network's dynamics. Numerical simulations show the
capacity of the model, in terms of the maximum size of implementable FSM, to be
linear in the size of the attractor network. We show that the model is robust
to imprecise and noisy weights, and so a prime candidate for implementation
with high-density but unreliable devices. By endowing attractor networks with
the ability to emulate arbitrary FSMs, we propose a plausible path by which
FSMs may exist as a distributed computational primitive in biological neural
networks.
- Abstract(参考訳): ホップフィールドアトラクタネットワークは、人間のメモリの堅牢な分散モデルである。
本研究では,アトラクタネットワークが任意の有限状態マシン(FSM)を実装し,状態と刺激を高次元のランダム双極ベクトルで表現し,すべての状態遷移をアトラクタネットワークのダイナミクスによって実行する構成規則を提案する。
数値シミュレーションは、実装可能なfsmの最大サイズの観点から、モデルがアトラクタネットワークのサイズで線形であることを示す。
モデルが不正確でノイズの多い重み付けに頑健であることを示し、高密度だが信頼性の低いデバイスによる実装の候補となる。
任意のFSMをエミュレートできるアトラクタネットワークを付与することにより、生物学的ニューラルネットワークにおいてFSMが分散計算プリミティブとして存在することを示す。
関連論文リスト
- Distributed Representations Enable Robust Multi-Timescale Symbolic Computation in Neuromorphic Hardware [3.961418890143814]
本稿では,ロバストなマルチスケールダイナミックスをアトラクタベースRSNNに組み込むシングルショット重み学習方式について述べる。
対称自己解離重み行列を重畳することにより、有限状態機械をRSNN力学に組み込む。
この研究は、リカレントダイナミクスによる堅牢な記号計算をニューロモルフィックハードウェアに組み込むスケーラブルなアプローチを導入している。
論文 参考訳(メタデータ) (2024-05-02T14:11:50Z) - Variational adiabatic transport of tensor networks [0.0]
本稿では,行列積演算子としての断熱ゲージポテンシャルを構成するテンソルネットワークについて論じる。
私たちは、研究するモデルの臨界点を通じて、確実に状態を輸送できることを示します。
論文 参考訳(メタデータ) (2023-11-01T18:00:02Z) - Towards Neural Variational Monte Carlo That Scales Linearly with System
Size [67.09349921751341]
量子多体問題(Quantum many-body problem)は、例えば高温超伝導体のようなエキゾチックな量子現象をデミストする中心である。
量子状態を表すニューラルネットワーク(NN)と変分モンテカルロ(VMC)アルゴリズムの組み合わせは、そのような問題を解決する上で有望な方法であることが示されている。
ベクトル量子化技術を用いて,VMCアルゴリズムの局所エネルギー計算における冗長性を利用するNNアーキテクチャVector-Quantized Neural Quantum States (VQ-NQS)を提案する。
論文 参考訳(メタデータ) (2022-12-21T19:00:04Z) - Over-the-Air Split Machine Learning in Wireless MIMO Networks [56.27831295707334]
スプリット機械学習(ML)では、ニューラルネットワーク(NN)の異なるパーティションが異なる計算ノードによって実行される。
通信負担を軽減するため、OAC(Over-the-air calculation)は通信と同時に計算の全てまたは一部を効率的に実装することができる。
論文 参考訳(メタデータ) (2022-10-07T15:39:11Z) - Spreading of a local excitation in a Quantum Hierarchical Model [62.997667081978825]
常磁性相における量子ダイソン階層モデルのダイナミクスについて検討する。
地磁気場状態の局所励起による初期状態を考慮する。
局所化機構が発見され、励起は任意の時間で初期位置に近づいたままである。
論文 参考訳(メタデータ) (2022-07-14T10:05:20Z) - Investigating Network Parameters in Neural-Network Quantum States [0.0]
ニューラルネットワークを用いた量子状態表現は強力なツールとして認識され始めている。
最も単純なニューラルネットワークの1つである制限ボルツマンマシン(RBM)を、1次元(1次元)逆場イジング(TFI)モデルの基底状態表現に適用する。
1次元TFIモデルにおける秩序相から乱相への量子相転移は, ニューラルネットワークパラメータの挙動に明らかに反映されている。
論文 参考訳(メタデータ) (2022-02-03T17:13:21Z) - Quantum-inspired event reconstruction with Tensor Networks: Matrix
Product States [0.0]
ニューラルネットワークは量子力学の概念を機械学習技術に結びつけるのに理想的な手段であることを示す。
エンタングルメントのエントロピーは,ネットワークの学習内容の解釈に有効であることを示す。
論文 参考訳(メタデータ) (2021-06-15T18:00:02Z) - Data-Driven Random Access Optimization in Multi-Cell IoT Networks with
NOMA [78.60275748518589]
非直交多重アクセス(NOMA)は、5Gネットワーク以降で大規模なマシンタイプ通信(mMTC)を可能にする重要な技術です。
本稿では,高密度空間分散マルチセル無線IoTネットワークにおけるランダムアクセス効率向上のために,NOMAを適用した。
ユーザ期待容量の幾何学的平均を最大化するために,各IoTデバイスの伝送確率を調整したランダムチャネルアクセス管理の新たな定式化を提案する。
論文 参考訳(メタデータ) (2021-01-02T15:21:08Z) - Training End-to-End Analog Neural Networks with Equilibrium Propagation [64.0476282000118]
本稿では,勾配降下による終端から終端までのアナログニューラルネットワークの学習法を提案する。
数学的には、アナログニューラルネットワークのクラス(非線形抵抗性ネットワークと呼ばれる)がエネルギーベースモデルであることが示される。
我々の研究は、オンチップ学習をサポートする、超高速でコンパクトで低消費電力のニューラルネットワークの新世代の開発を導くことができる。
論文 参考訳(メタデータ) (2020-06-02T23:38:35Z) - Flexible Transmitter Network [84.90891046882213]
現在のニューラルネットワークはMPモデルに基づいて構築されており、通常はニューロンを他のニューロンから受信した信号の実際の重み付け集約上での活性化関数の実行として定式化する。
本稿では,フレキシブル・トランスミッタ(FT)モデルを提案する。
本稿では、最も一般的な完全接続型フィードフォワードアーキテクチャ上に構築された、フレキシブルトランスミッタネットワーク(FTNet)について述べる。
論文 参考訳(メタデータ) (2020-04-08T06:55:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。