論文の概要: The Neuro-Symbolic Brain
- arxiv url: http://arxiv.org/abs/2205.13440v1
- Date: Fri, 13 May 2022 00:39:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-06 07:51:34.668802
- Title: The Neuro-Symbolic Brain
- Title(参考訳): ニューロシンボリック脳
- Authors: Robert Liz\'ee
- Abstract要約: フィードバックスパイクニューラルネットワークにおける自己維持型アトラクタとして,スパースランダムノイズを訓練することにより,シンボルを作成することを提案する。
このようにして、素誘引器と呼ぶものの多くを生成することができ、それらをサポートするネットワークは、シンボル値を持つレジスタのようなものである。
自然にニューロンによって実装された入賞機構により、レジスタはノイズ信号内でプライマリ・アトラクタを回復することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural networks promote a distributed representation with no clear place for
symbols. Despite this, we propose that symbols are manufactured simply by
training a sparse random noise as a self-sustaining attractor in a feedback
spiking neural network. This way, we can generate many of what we shall call
prime attractors, and the networks that support them are like registers holding
a symbolic value, and we call them registers. Like symbols, prime attractors
are atomic and devoid of any internal structure. Moreover, the winner-take-all
mechanism naturally implemented by spiking neurons enables registers to recover
a prime attractor within a noisy signal. Using this faculty, when considering
two connected registers, an input one and an output one, it is possible to bind
in one shot using a Hebbian rule the attractor active on the output to the
attractor active on the input. Thus, whenever an attractor is active on the
input, it induces its bound attractor on the output; even though the signal
gets blurrier with more bindings, the winner-take-all filtering faculty can
recover the bound prime attractor. However, the capacity is still limited. It
is also possible to unbind in one shot, restoring the capacity taken by that
binding. This mechanism serves as a basis for working memory, turning prime
attractors into variables. Also, we use a random second-order network to
amalgamate the prime attractors held by two registers to bind the prime
attractor held by a third register to them in one shot, de facto implementing a
hash table. Furthermore, we introduce the register switch box composed of
registers to move the content of one register to another. Then, we use spiking
neurons to build a toy symbolic computer based on the above. The technics used
suggest ways to design extrapolating, reusable, sample-efficient deep learning
networks at the cost of structural priors.
- Abstract(参考訳): ニューラルネットワークはシンボルの明確な場所のない分散表現を促進する。
それにもかかわらず、我々は、フィードバックスパイクニューラルネットワークにおいて、自給性アトラクションとしてスパースランダムノイズを訓練することで、シンボルを製造することを提案する。
このようにして、プライマリアトラクターと呼ぶものの多くを生成し、それらをサポートするネットワークは、シンボル値を持つレジスタのようなもので、それらをレジスタと呼ぶ。
記号と同様に、素誘引子は原子であり、内部構造を持たない。
さらに、スパイクニューロンによって自然に実装された入賞機構により、レジスタはノイズ信号内で素誘引器を回復することができる。
この教科を用いると、2つの連結レジスタ、入力1と出力1を考慮すれば、入力にアクティブなアトラクターに対して出力にアクティブなアトラクターをヘビアン規則で1枚のショットにバインドすることができる。
したがって、アトラクタが入力にアクティブな場合、その信号がより多くの結合でぼやけても、そのバウンドアトラクタを出力に誘導し、勝者総フィルタリング部はバウンドプライムアトラクタを回収することができる。
ただし、容量は限られている。
ワンショットでアンバイドすることも可能で、その結合によって取り込まれるキャパシティを復元することもできる。
このメカニズムはワーキングメモリの基礎となり、プライムアトラクタを変数に変換する。
また、ランダムな2次ネットワークを用いて、2つのレジスタが保持するプライマリアトラクタをマージし、第3レジスタが保持するプライマリアトラクタを1ショットでバインドし、ハッシュテーブルを事実上実装する。
さらに、あるレジスタの内容が別のレジスタに移動するようにレジスタからなるレジスタスイッチボックスを導入する。
次に、スパイクニューロンを用いて、上記に基づいておもちゃのシンボルコンピューターを構築する。
この技術は、構造的先行コストで外挿、再利用、サンプル効率のよいディープラーニングネットワークを設計する方法を提案する。
関連論文リスト
- Input-driven circuit reconfiguration in critical recurrent neural networks.Marcelo O. Magnasco [0.0]
入力のみを用いて経路を「オンフライ」に再構成できる,非常に単純な単一層再帰ネットワークを提案する。
このネットワークは、信号の伝搬を各領域に沿ってのみ評価することで、古典的な接続性問題を解決する。
論文 参考訳(メタデータ) (2024-05-23T20:15:23Z) - Domain Wall Magnetic Tunnel Junction Reliable Integrate and Fire Neuron [0.0]
本稿では,磁区壁と磁気トンネル接合を用いた人工統合火災ニューロンデバイスの設計と製造について述べる。
本研究では,磁壁-磁気トンネル接合型ニューロンデバイスにおける信頼性のある統合火炎リセットの実証実験を行った。
その結果、磁壁-磁気トンネル接合型ニューロンデバイスにおいて、信頼性の高い統合火炎リセットを初めて実現し、ニューロモルフィックコンピューティングにおけるスピントロニクスの約束を示す。
論文 参考訳(メタデータ) (2024-05-23T17:56:52Z) - Designed Dithering Sign Activation for Binary Neural Networks [15.087814338685968]
本研究は,複数の閾値をディザリングの原理に従って適用し,空間的に周期的なしきい値カーネルに従って各画素の符号活性化関数をシフトするアクティベーションを提案する。
分類タスクに関する実験は、計算コストを増大させることなく、バイナリニューラルネットワークの代替活性化として設計されたディザリングサイン活性化関数の有効性を示す。
論文 参考訳(メタデータ) (2024-05-03T16:27:39Z) - Polynomial Neural Fields for Subband Decomposition and Manipulation [78.2401411189246]
我々はニューラルフィールド(PNF)と呼ばれる新しい種類のニューラルフィールドを提案する。
PNFの鍵となる利点は、信号がニューラルネットワークの利点を失うことなく、操作可能なコンポーネントと解釈可能なコンポーネントの合成として表現できることである。
本研究では,Fourier PNFがテクスチャ転送やスケール空間といった信号操作の応用を可能にすることを実証的に示す。
論文 参考訳(メタデータ) (2023-02-09T18:59:04Z) - ParCNetV2: Oversized Kernel with Enhanced Attention [60.141606180434195]
我々はParCNetV2という畳み込みニューラルネットワークアーキテクチャを導入する。
位置認識型円形畳み込み(ParCNet)を拡張し、大きめの畳み込みを施し、分岐ゲートユニットを通して注意を向ける。
提案手法は、CNNとトランスフォーマーをハイブリッド化するニューラルネットワークと同様に、他の純粋な畳み込みニューラルネットワークよりも優れている。
論文 参考訳(メタデータ) (2022-11-14T07:22:55Z) - Universal computation using localized limit-cycle attractors in neural
networks [0.0]
しきい値ネットワークにおける局所的アトラクタの相互作用は普遍的な計算結果をもたらすことを示す。
生物にインスパイアされた2次元しきい値ネットワークにおいて,普遍的なブールゲートを構築できるスイッチングアルゴリズムを開発した。
これらのゲートは普遍的なコンピュータを構築するのに利用できることを示す。
論文 参考訳(メタデータ) (2021-12-10T14:12:21Z) - Logical Activation Functions: Logit-space equivalents of Boolean
Operators [4.577830474623795]
ニューラルネットワークのアクティベーション関数としてデプロイ可能な,$textAND_textAIL$という効率的な近似を導入する。
画像分類,伝達学習,抽象的推論,合成ゼロショット学習など,様々なタスクにおいて有効性を示す。
論文 参考訳(メタデータ) (2021-10-22T17:49:42Z) - Consistent Two-Flow Network for Tele-Registration of Point Clouds [74.51029406361997]
任意のポーズで提示される点群間の登録を可能とし,重複がほとんどあるいは全くない学習ベースの手法を提案する。
本手法は,一群の形状の先行を学習し,部分的な形状を完遂できる新しいニューラルネットワーク設計に基づいている。
個別のフローと比較して、この2フローのトレーニングが堅牢で信頼性の高い遠隔登録につながることを示す。
論文 参考訳(メタデータ) (2021-06-01T09:03:21Z) - Artificial Neural Networks generated by Low Discrepancy Sequences [59.51653996175648]
我々は、高密度ネットワークグラフ上のランダムウォーキングとして、人工ニューラルネットワークを生成する。
このようなネットワークはスクラッチからスパースを訓練することができ、高密度ネットワークをトレーニングし、その後圧縮する高価な手順を避けることができる。
我々は,低差分シーケンスで生成された人工ニューラルネットワークが,より低い計算複雑性で,密度の高いニューラルネットワークの到達範囲内で精度を達成できることを実証した。
論文 参考訳(メタデータ) (2021-03-05T08:45:43Z) - Attentive WaveBlock: Complementarity-enhanced Mutual Networks for
Unsupervised Domain Adaptation in Person Re-identification and Beyond [97.25179345878443]
本稿では,新しい軽量モジュールであるAttentive WaveBlock (AWB)を提案する。
AWBは相互学習の二重ネットワークに統合され、相互学習の相補性を高め、擬似ラベルのノイズをさらに抑えることができる。
実験により, 提案手法は, 複数のUDA人物再識別タスクを大幅に改善し, 最先端の性能を達成できることが実証された。
論文 参考訳(メタデータ) (2020-06-11T15:40:40Z) - Populations of Spiking Neurons for Reservoir Computing: Closed Loop
Control of a Compliant Quadruped [64.64924554743982]
本稿では,ニューラルネットワークを用いた中央パターン生成機構を実装し,閉ループロボット制御を実現するためのフレームワークを提案する。
本研究では,従順な四足歩行ロボットのシミュレーションモデル上で,予め定義された歩行パターン,速度制御,歩行遷移の学習を実演する。
論文 参考訳(メタデータ) (2020-04-09T14:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。