論文の概要: Pavlov Learning Machines
- arxiv url: http://arxiv.org/abs/2207.00790v1
- Date: Sat, 2 Jul 2022 10:43:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-08 09:22:35.069008
- Title: Pavlov Learning Machines
- Title(参考訳): pavlov 学習機械
- Authors: Elena Agliari, Miriam Aquaro, Adriano Barra, Alberto Fachechi, Chiara
Marullo
- Abstract要約: ヘッブの学歴はパヴロフの古典的条件付けに由来する。
この目標に対する主な難しさは、本質的に異なるスケールの情報を格納することにある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As well known, Hebb's learning traces its origin in Pavlov's Classical
Conditioning, however, while the former has been extensively modelled in the
past decades (e.g., by Hopfield model and countless variations on theme), as
for the latter modelling has remained largely unaddressed so far; further, a
bridge between these two pillars is totally lacking. The main difficulty
towards this goal lays in the intrinsically different scales of the information
involved: Pavlov's theory is about correlations among \emph{concepts} that are
(dynamically) stored in the synaptic matrix as exemplified by the celebrated
experiment starring a dog and a ring bell; conversely, Hebb's theory is about
correlations among pairs of adjacent neurons as summarized by the famous
statement {\em neurons that fire together wire together}. In this paper we rely
on stochastic-process theory and model neural and synaptic dynamics via
Langevin equations, to prove that -- as long as we keep neurons' and synapses'
timescales largely split -- Pavlov mechanism spontaneously takes place and
ultimately gives rise to synaptic weights that recover the Hebbian kernel.
- Abstract(参考訳): 有名なように、ヘブの学習はパヴロフの古典的条件付けにその起源を辿るが、前者は過去数十年にわたって広範囲にモデル化されてきた(例えばホップフィールドモデルやテーマに関する無数のバリエーションによって)。
パブロフの理論は、犬とリングベルを主役とする有名な実験で示されるように、シナプス行列に(動的に)保存されている 'emph{concepts} 間の相関関係についてであり、逆に、ヘッブの理論は隣接するニューロンのペア間の相関関係に関するものである。
本稿では、確率過程理論とランゲヴィン方程式による神経・シナプス力学をモデル化し、ニューロンとシナプスの時間スケールが大々的に分裂している限り、パブロフ機構が自然発生し、最終的にヘビアン核を回復するシナプス重みが生じることを証明した。
関連論文リスト
- Artificial Kuramoto Oscillatory Neurons [65.16453738828672]
しきい値単位の動的代替として人工内蔵ニューロン(AKOrN)を導入する。
このアイデアは、幅広いタスクにまたがってパフォーマンス改善をもたらすことを示しています。
これらの経験的結果は、神経表現の最も基本的なレベルにおいて、私たちの仮定の重要性を示していると信じている。
論文 参考訳(メタデータ) (2024-10-17T17:47:54Z) - Confidence Regulation Neurons in Language Models [91.90337752432075]
本研究では,大規模言語モデルが次世代の予測において不確実性を表現・規制するメカニズムについて検討する。
エントロピーニューロンは異常に高い重量ノルムを特徴とし、最終層正規化(LayerNorm)スケールに影響を与え、ロジットを効果的にスケールダウンさせる。
ここで初めて説明するトークン周波数ニューロンは、各トークンのログをそのログ周波数に比例して増加または抑制することで、出力分布をユニグラム分布から遠ざかる。
論文 参考訳(メタデータ) (2024-06-24T01:31:03Z) - Heisenberg dynamics of mixed quantum-classical systems [0.0]
混合量子古典系は、量子オブザーバブルとラグランジアン軌道に作用するユニタリ作用素の相互作用を含む。
この相互作用は、古典的な軌道上で量子自由度によって抽出されたバックリアクションによって特に困難となる複雑な構造を反映している。
論文 参考訳(メタデータ) (2024-05-17T09:36:03Z) - Quantum Effects on the Synchronization Dynamics of the Kuramoto Model [62.997667081978825]
量子揺らぎは同期の出現を妨げるが、完全に抑制するわけではない。
モデルパラメータへの依存を強調して,臨界結合の解析式を導出する。
論文 参考訳(メタデータ) (2023-06-16T16:41:16Z) - A Quantum-Classical Model of Brain Dynamics [62.997667081978825]
混合ワイル記号は、脳の過程を顕微鏡レベルで記述するために用いられる。
プロセスに関与する電磁場とフォノンモードは古典的または半古典的に扱われる。
ゼロ点量子効果は、各フィールドモードの温度を制御することで数値シミュレーションに組み込むことができる。
論文 参考訳(メタデータ) (2023-01-17T15:16:21Z) - Neurons as hierarchies of quantum reference frames [0.0]
我々は、シナプス、樹状突起および軸索過程、ニューロン、局所ネットワークの均一でスケーラブルな表現を開発する。
発達的・再生的文脈において、モデルがどのように非神経細胞や組織に一般化されるのかを概説する。
論文 参考訳(メタデータ) (2022-01-04T00:53:56Z) - Entropy Production and the Role of Correlations in Quantum Brownian
Motion [77.34726150561087]
量子ブラウン運動のカルデイラ・レゲットモデルにおいて、量子エントロピーの生成、異なる種類の相関、およびそれらの相互作用について研究する。
論文 参考訳(メタデータ) (2021-08-05T13:11:05Z) - The Neural Coding Framework for Learning Generative Models [91.0357317238509]
本稿では,脳の予測処理理論に触発された新しい神経生成モデルを提案する。
同様に、私たちの生成モデルにおける人工ニューロンは、隣接するニューロンが何をするかを予測し、予測が現実にどの程度一致するかに基づいてパラメータを調整します。
論文 参考訳(メタデータ) (2020-12-07T01:20:38Z) - Weakly-correlated synapses promote dimension reduction in deep neural
networks [1.7532045941271799]
シナプス相関が神経相関にどのように影響し、絡み合った隠された表現を生み出すかは、いまだ解明されていない。
本稿では,シナプス間の相互相関を考慮した次元縮小モデルを提案する。
我々の理論は、数学的自己整合性のみを必要とするシナプス相関スケーリング形式を決定する。
論文 参考訳(メタデータ) (2020-06-20T13:11:37Z) - Learning to infer in recurrent biological networks [4.56877715768796]
大脳皮質は逆アルゴリズムで学習するかもしれないと我々は主張する。
画像とビデオのデータセットをモデル化するために訓練されたリカレントニューラルネットワークについて説明する。
論文 参考訳(メタデータ) (2020-06-18T19:04:47Z) - The nonlinear semiclassical dynamics of the unbalanced, open Dicke model [0.0]
ディックモデル(Dicke model)は、原子が集合的に光をキャビティモードに放出する状態への量子相転移を示す。
このシステムを半古典的(平均場)限界で研究し、量子ゆらぎの役割を無視する。
集合スピンのフリップは、カオス力学の突然の出現をもたらす。
論文 参考訳(メタデータ) (2020-04-09T11:13:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。