論文の概要: Complementary Structure-Learning Neural Networks for Relational
Reasoning
- arxiv url: http://arxiv.org/abs/2105.08944v1
- Date: Wed, 19 May 2021 06:25:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-20 19:44:38.519109
- Title: Complementary Structure-Learning Neural Networks for Relational
Reasoning
- Title(参考訳): 関係推論のための補足構造学習ニューラルネットワーク
- Authors: Jacob Russin, Maryam Zolfaghar, Seongmin A. Park, Erie Boorman,
Randall C. O'Reilly
- Abstract要約: 海馬におけるパターン分離は,新しい環境下での迅速な学習を可能にすることを示す。
ネオコルテックスのゆっくりとした学習は、よく学習された環境から体系的な構造を抽出するために小さな重量変化を蓄積する。
- 参考スコア(独自算出の注目度): 3.528645587678267
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The neural mechanisms supporting flexible relational inferences, especially
in novel situations, are a major focus of current research. In the
complementary learning systems framework, pattern separation in the hippocampus
allows rapid learning in novel environments, while slower learning in neocortex
accumulates small weight changes to extract systematic structure from
well-learned environments. In this work, we adapt this framework to a task from
a recent fMRI experiment where novel transitive inferences must be made
according to implicit relational structure. We show that computational models
capturing the basic cognitive properties of these two systems can explain
relational transitive inferences in both familiar and novel environments, and
reproduce key phenomena observed in the fMRI experiment.
- Abstract(参考訳): フレキシブルリレーショナル推論をサポートする神経機構は、特に新しい状況において、現在の研究の大きな焦点となっている。
補足的な学習システムフレームワークでは、海馬におけるパターン分離は、新しい環境での迅速な学習を可能にするが、新皮質での学習の遅さは小さな変化を蓄積し、よく学習された環境から体系的な構造を抽出する。
本研究では,この枠組みを,暗黙的関係構造に従って新しい推移的推論を行なわなければならない最近のfMRI実験の課題に適用する。
これら2つのシステムの基本的な認知特性を捉えた計算モデルは,慣れ親しんだ環境と新しい環境の両方における関係推移的推論を説明でき,fmri実験で観測された重要な現象を再現できる。
関連論文リスト
- Meta-Dynamical State Space Models for Integrative Neural Data Analysis [8.625491800829224]
環境間の共有構造を学習することは、ニューラルネットワークの迅速な学習と適応的な振る舞いを促進する。
ニューラル記録から潜伏ダイナミクスを学習するのと同様の作業中に、ニューラルアクティビティの共有構造を利用する作業は限られている。
本稿では,訓練動物のタスク関連神経活動から,この解空間をメタラーニングするための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-10-07T19:35:49Z) - Interpretable Spatio-Temporal Embedding for Brain Structural-Effective Network with Ordinary Differential Equation [56.34634121544929]
本研究では,まず動的因果モデルを用いて脳効果ネットワークを構築する。
次に、STE-ODE(Spatio-Temporal Embedding ODE)と呼ばれる解釈可能なグラフ学習フレームワークを導入する。
このフレームワークは、構造的および効果的なネットワーク間の動的相互作用を捉えることを目的とした、特異的に設計されたノード埋め込み層を含んでいる。
論文 参考訳(メタデータ) (2024-05-21T20:37:07Z) - Demolition and Reinforcement of Memories in Spin-Glass-like Neural
Networks [0.0]
この論文の目的は、連想記憶モデルと生成モデルの両方において、アンラーニングの有効性を理解することである。
構造化データの選択により、連想記憶モデルは、相当量のアトラクションを持つニューラルダイナミクスのアトラクションとしての概念を検索することができる。
Boltzmann Machinesの新しい正規化手法が提案され、データセットから隠れ確率分布を学習する以前に開発された手法より優れていることが証明された。
論文 参考訳(メタデータ) (2024-03-04T23:12:42Z) - Curriculum effects and compositionality emerge with in-context learning in neural networks [15.744573869783972]
In-context learning (ICL) が可能なネットワークは、ルールが支配するタスクにおいて、人間のような学習や構成の振る舞いを再現できることを示す。
我々の研究は、創発性ICLがニューラルネットワークに、伝統的に帰属するものと根本的に異なる学習特性を持たせる方法を示している。
論文 参考訳(メタデータ) (2024-02-13T18:55:27Z) - Brain-Inspired Machine Intelligence: A Survey of
Neurobiologically-Plausible Credit Assignment [65.268245109828]
本稿では,神経生物学にインスパイアされた,あるいは動機付けられた人工ニューラルネットワークにおける信用割当を行うアルゴリズムについて検討する。
我々は、脳にインスパイアされた学習スキームを6つの一般的なファミリーにまとめ、これらを誤りのバックプロパゲーションの文脈で検討する。
本研究の成果は,神経ミメティックシステムとその構成的学習プロセスの今後の発展を促進することを目的としている。
論文 参考訳(メタデータ) (2023-12-01T05:20:57Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - The Predictive Forward-Forward Algorithm [79.07468367923619]
本稿では,ニューラルネットワークにおける信頼割当を行うための予測フォワード(PFF)アルゴリズムを提案する。
我々は,有向生成回路と表現回路を同時に同時に学習する,新しい動的リカレントニューラルネットワークを設計する。
PFFは効率よく学習し、学習信号を伝達し、フォワードパスのみでシナプスを更新する。
論文 参考訳(メタデータ) (2023-01-04T05:34:48Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - BioLeaF: A Bio-plausible Learning Framework for Training of Spiking
Neural Networks [4.698975219970009]
本稿では,新しいアーキテクチャと学習ルールをサポートする2つのコンポーネントからなる,生物工学的な新しい学習フレームワークを提案する。
マイクロ回路アーキテクチャでは,Spyke-Timing-Dependent-Plasticity(STDP)ルールをローカルコンパートメントで運用し,シナプス重みを更新する。
実験の結果,提案手法はBP法則に匹敵する学習精度を示す。
論文 参考訳(メタデータ) (2021-11-14T10:32:22Z) - Neural Relational Inference with Efficient Message Passing Mechanisms [10.329082213561785]
本稿では,これらの問題に対処するための構造的事前知識を持つグラフニューラルネットワークに,効率的なメッセージパッシング機構を導入する。
すべての関係の共存を捕捉する関係相互作用機構を提案し、エラーの蓄積を緩和するために履歴情報を用いてアテンポラルメッセージパッシング機構を提案する。
論文 参考訳(メタデータ) (2021-01-23T11:27:31Z) - Developing Constrained Neural Units Over Time [81.19349325749037]
本稿では,既存のアプローチと異なるニューラルネットワークの定義方法に焦点をあてる。
ニューラルネットワークの構造は、データとの相互作用にも拡張される制約の特別なクラスによって定義される。
提案した理論は時間領域にキャストされ, データを順序づけられた方法でネットワークに提示する。
論文 参考訳(メタデータ) (2020-09-01T09:07:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。