論文の概要: Universal computation using localized limit-cycle attractors in neural
networks
- arxiv url: http://arxiv.org/abs/2112.05558v1
- Date: Fri, 10 Dec 2021 14:12:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-04 22:43:52.256922
- Title: Universal computation using localized limit-cycle attractors in neural
networks
- Title(参考訳): ニューラルネットワークにおける局所化リミットサイクルアトラクタを用いた普遍計算
- Authors: Lorenz Baumgarten, Stefan Bornholdt
- Abstract要約: しきい値ネットワークにおける局所的アトラクタの相互作用は普遍的な計算結果をもたらすことを示す。
生物にインスパイアされた2次元しきい値ネットワークにおいて,普遍的なブールゲートを構築できるスイッチングアルゴリズムを開発した。
これらのゲートは普遍的なコンピュータを構築するのに利用できることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks are dynamical systems that compute with their dynamics. One
example is the Hopfield model, forming an associative memory which stores
patterns as global attractors of the network dynamics. From studies of
dynamical networks it is well known that localized attractors also exist. Yet,
they have not been used in computing paradigms. Here we show that interacting
localized attractors in threshold networks can result in universal computation.
We develop a rewiring algorithm that builds universal Boolean gates in a
biologically inspired two-dimensional threshold network with randomly placed
and connected nodes using collision-based computing. We aim at demonstrating
the computational capabilities and the ability to control local limit cycle
attractors in such networks by creating simple Boolean gates by means of these
local activations. The gates use glider guns, i.e., localized activity that
periodically generates "gliders" of activity that propagate through space.
Several such gliders are made to collide, and the result of their interaction
is used as the output of a Boolean gate. We show that these gates can be used
to build a universal computer.
- Abstract(参考訳): ニューラルネットワークは、そのダイナミクスで計算する動的システムである。
例えば、ホップフィールドモデル(hopfield model)は、ネットワークダイナミクスのグローバルアトラクタとしてパターンを格納する連想メモリを形成する。
動的ネットワークの研究から、局所的なアトラクタも存在することが知られている。
しかし、それらはコンピューティングパラダイムでは使われていない。
ここでは、閾値ネットワークにおける局所的アトラクタの相互作用が普遍的な計算をもたらすことを示す。
本研究では,ランダムに配置された2次元しきい値ネットワーク上に汎用ブールゲートを構築するリワイリングアルゴリズムを開発した。
我々は,これらの局所的な活性化を用いて単純なブールゲートを作成することで,ネットワーク内の局所制限サイクルアトラクタを制御する計算能力と制御能力の実証を目標としている。
門はグライダー銃、すなわち空間を伝播する活動の「グライダー」を定期的に生成する局所的な活動を使用する。
いくつかのグライダーが衝突し、それらの相互作用の結果がブールゲートの出力として使用される。
これらのゲートはユニバーサルコンピュータの構築に利用できることを示す。
関連論文リスト
- Input-driven circuit reconfiguration in critical recurrent neural networks.Marcelo O. Magnasco [0.0]
入力のみを用いて経路を「オンフライ」に再構成できる,非常に単純な単一層再帰ネットワークを提案する。
このネットワークは、信号の伝搬を各領域に沿ってのみ評価することで、古典的な接続性問題を解決する。
論文 参考訳(メタデータ) (2024-05-23T20:15:23Z) - Graph Neural Networks and Arithmetic Circuits [0.0]
グラフニューラルネットワークアーキテクチャに従うニューラルネットワークの計算能力の特徴付けを行う。
多様なアクティベーション関数と実数演算を用いたGNNの表現率の正確な対応性を確立する。
論文 参考訳(メタデータ) (2024-02-27T11:04:06Z) - From NeurODEs to AutoencODEs: a mean-field control framework for
width-varying Neural Networks [68.8204255655161]
本稿では,動的に駆動する制御フィールドをベースとした,AutoencODEと呼ばれる新しいタイプの連続時間制御システムを提案する。
損失関数が局所凸な領域では,多くのアーキテクチャが復元可能であることを示す。
論文 参考訳(メタデータ) (2023-07-05T13:26:17Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Artificial Neuronal Ensembles with Learned Context Dependent Gating [0.0]
LXDG(Learned Context Dependent Gating)は、人工神経のアンサンブルを柔軟に割り当て、リコールする方法である。
ネットワークの隠れた層におけるアクティビティは、トレーニング中に動的に生成されるゲートによって変調される。
本稿では,この手法が連続学習ベンチマークにおける破滅的な忘れを軽減できることを示す。
論文 参考訳(メタデータ) (2023-01-17T20:52:48Z) - Neural Computing with Coherent Laser Networks [0.0]
レーザーのコヒーレントなネットワークは、創発的なニューラルコンピューティング能力を示すことを示す。
新たなエネルギーベースのリカレントニューラルネットワークは、ホップフィールドネットワークやボルツマンマシンとは対照的に、連続したデータを処理している。
論文 参考訳(メタデータ) (2022-04-05T13:56:34Z) - Deep Parametric Continuous Convolutional Neural Networks [92.87547731907176]
Parametric Continuous Convolutionは、非グリッド構造化データ上で動作する、新たな学習可能な演算子である。
室内および屋外シーンの点雲セグメンテーションにおける最先端技術よりも顕著な改善が見られた。
論文 参考訳(メタデータ) (2021-01-17T18:28:23Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z) - Reservoir Memory Machines as Neural Computers [70.5993855765376]
微分可能なニューラルネットワークは、干渉することなく明示的なメモリで人工ニューラルネットワークを拡張する。
我々は、非常に効率的に訓練できるモデルを用いて、微分可能なニューラルネットワークの計算能力を実現する。
論文 参考訳(メタデータ) (2020-09-14T12:01:30Z) - Training End-to-End Analog Neural Networks with Equilibrium Propagation [64.0476282000118]
本稿では,勾配降下による終端から終端までのアナログニューラルネットワークの学習法を提案する。
数学的には、アナログニューラルネットワークのクラス(非線形抵抗性ネットワークと呼ばれる)がエネルギーベースモデルであることが示される。
我々の研究は、オンチップ学習をサポートする、超高速でコンパクトで低消費電力のニューラルネットワークの新世代の開発を導くことができる。
論文 参考訳(メタデータ) (2020-06-02T23:38:35Z) - Exposing Hardware Building Blocks to Machine Learning Frameworks [4.56877715768796]
我々は、そのようなニューロンをユニークな関数として補完するトポロジーを設計する方法に焦点をあてる。
我々は、カスタムの空間性と量子化によるニューラルネットワークのトレーニングを支援するライブラリを開発する。
論文 参考訳(メタデータ) (2020-04-10T14:26:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。