論文の概要: Pavlov Learning Machines
- arxiv url: http://arxiv.org/abs/2207.00790v1
- Date: Sat, 2 Jul 2022 10:43:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-08 09:22:35.069008
- Title: Pavlov Learning Machines
- Title(参考訳): pavlov 学習機械
- Authors: Elena Agliari, Miriam Aquaro, Adriano Barra, Alberto Fachechi, Chiara
Marullo
- Abstract要約: ヘッブの学歴はパヴロフの古典的条件付けに由来する。
この目標に対する主な難しさは、本質的に異なるスケールの情報を格納することにある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As well known, Hebb's learning traces its origin in Pavlov's Classical
Conditioning, however, while the former has been extensively modelled in the
past decades (e.g., by Hopfield model and countless variations on theme), as
for the latter modelling has remained largely unaddressed so far; further, a
bridge between these two pillars is totally lacking. The main difficulty
towards this goal lays in the intrinsically different scales of the information
involved: Pavlov's theory is about correlations among \emph{concepts} that are
(dynamically) stored in the synaptic matrix as exemplified by the celebrated
experiment starring a dog and a ring bell; conversely, Hebb's theory is about
correlations among pairs of adjacent neurons as summarized by the famous
statement {\em neurons that fire together wire together}. In this paper we rely
on stochastic-process theory and model neural and synaptic dynamics via
Langevin equations, to prove that -- as long as we keep neurons' and synapses'
timescales largely split -- Pavlov mechanism spontaneously takes place and
ultimately gives rise to synaptic weights that recover the Hebbian kernel.
- Abstract(参考訳): 有名なように、ヘブの学習はパヴロフの古典的条件付けにその起源を辿るが、前者は過去数十年にわたって広範囲にモデル化されてきた(例えばホップフィールドモデルやテーマに関する無数のバリエーションによって)。
パブロフの理論は、犬とリングベルを主役とする有名な実験で示されるように、シナプス行列に(動的に)保存されている 'emph{concepts} 間の相関関係についてであり、逆に、ヘッブの理論は隣接するニューロンのペア間の相関関係に関するものである。
本稿では、確率過程理論とランゲヴィン方程式による神経・シナプス力学をモデル化し、ニューロンとシナプスの時間スケールが大々的に分裂している限り、パブロフ機構が自然発生し、最終的にヘビアン核を回復するシナプス重みが生じることを証明した。
関連論文リスト
- Learning with Chemical versus Electrical Synapses -- Does it Make a
Difference? [61.85704286298537]
バイオインスパイアされたニューラルネットワークは、ニューラルネットワークの理解を深め、AIシステムの最先端を改善する可能性がある。
我々は,光リアルな自律走行シミュレータを用いて自律車線維持実験を行い,その性能を種々の条件下で評価する。
論文 参考訳(メタデータ) (2023-11-21T13:07:20Z) - Quantum Effects on the Synchronization Dynamics of the Kuramoto Model [62.997667081978825]
量子揺らぎは同期の出現を妨げるが、完全に抑制するわけではない。
モデルパラメータへの依存を強調して,臨界結合の解析式を導出する。
論文 参考訳(メタデータ) (2023-06-16T16:41:16Z) - A Quantum-Classical Model of Brain Dynamics [62.997667081978825]
混合ワイル記号は、脳の過程を顕微鏡レベルで記述するために用いられる。
プロセスに関与する電磁場とフォノンモードは古典的または半古典的に扱われる。
ゼロ点量子効果は、各フィールドモードの温度を制御することで数値シミュレーションに組み込むことができる。
論文 参考訳(メタデータ) (2023-01-17T15:16:21Z) - New insights on the quantum-classical division in light of Collapse
Models [63.942632088208505]
量子的挙動と古典的挙動の分断は熱力学的相の分断と類似していると主張する。
崩壊パラメータ $(lambda)$ と崩壊長スケール$r_C$ との特定の関係は、通常の熱力学相図における共存曲線の役割を担っている。
論文 参考訳(メタデータ) (2022-10-19T14:51:21Z) - Neurons as hierarchies of quantum reference frames [0.0]
我々は、シナプス、樹状突起および軸索過程、ニューロン、局所ネットワークの均一でスケーラブルな表現を開発する。
発達的・再生的文脈において、モデルがどのように非神経細胞や組織に一般化されるのかを概説する。
論文 参考訳(メタデータ) (2022-01-04T00:53:56Z) - A model of interacting quantum neurons with a dynamic synapse [0.0]
2つの相互作用する量子ビットの最小モデルと、古典的動的シナプスのようにアクティビティに依存した動的相互作用を用いる。
シナプス不況がない場合、2量子ビットの量子系は典型的なラビ振動を示す。
2つの量子ビット間の長時間の絡み合いはシナプス性抑うつの存在下で自然に増大する。
論文 参考訳(メタデータ) (2021-12-26T12:05:52Z) - Entropy Production and the Role of Correlations in Quantum Brownian
Motion [77.34726150561087]
量子ブラウン運動のカルデイラ・レゲットモデルにおいて、量子エントロピーの生成、異なる種類の相関、およびそれらの相互作用について研究する。
論文 参考訳(メタデータ) (2021-08-05T13:11:05Z) - The Neural Coding Framework for Learning Generative Models [91.0357317238509]
本稿では,脳の予測処理理論に触発された新しい神経生成モデルを提案する。
同様に、私たちの生成モデルにおける人工ニューロンは、隣接するニューロンが何をするかを予測し、予測が現実にどの程度一致するかに基づいてパラメータを調整します。
論文 参考訳(メタデータ) (2020-12-07T01:20:38Z) - Weakly-correlated synapses promote dimension reduction in deep neural
networks [1.7532045941271799]
シナプス相関が神経相関にどのように影響し、絡み合った隠された表現を生み出すかは、いまだ解明されていない。
本稿では,シナプス間の相互相関を考慮した次元縮小モデルを提案する。
我々の理論は、数学的自己整合性のみを必要とするシナプス相関スケーリング形式を決定する。
論文 参考訳(メタデータ) (2020-06-20T13:11:37Z) - Learning to infer in recurrent biological networks [4.56877715768796]
大脳皮質は逆アルゴリズムで学習するかもしれないと我々は主張する。
画像とビデオのデータセットをモデル化するために訓練されたリカレントニューラルネットワークについて説明する。
論文 参考訳(メタデータ) (2020-06-18T19:04:47Z) - The nonlinear semiclassical dynamics of the unbalanced, open Dicke model [0.0]
ディックモデル(Dicke model)は、原子が集合的に光をキャビティモードに放出する状態への量子相転移を示す。
このシステムを半古典的(平均場)限界で研究し、量子ゆらぎの役割を無視する。
集合スピンのフリップは、カオス力学の突然の出現をもたらす。
論文 参考訳(メタデータ) (2020-04-09T11:13:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。