論文の概要: Implementing engrams from a machine learning perspective: the relevance of a latent space
- arxiv url: http://arxiv.org/abs/2407.16616v1
- Date: Tue, 23 Jul 2024 16:24:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-24 16:36:00.384677
- Title: Implementing engrams from a machine learning perspective: the relevance of a latent space
- Title(参考訳): 機械学習の観点からのエングラムの実装--潜在空間の関連性
- Authors: J Marco de Lucas,
- Abstract要約: これまでの研究では、脳内のエングラムを、リカレントニューラルネットワーク上でのオートエンコーダとして生物学的に実装することを提案した。
本稿では,これらのオートエンコーダにおける潜伏空間の関連性について述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In our previous work, we proposed that engrams in the brain could be biologically implemented as autoencoders over recurrent neural networks. These autoencoders would comprise basic excitatory/inhibitory motifs, with credit assignment deriving from a simple homeostatic criterion. This brief note examines the relevance of the latent space in these autoencoders. We consider the relationship between the dimensionality of these autoencoders and the complexity of the information being encoded. We discuss how observed differences between species in their connectome could be linked to their cognitive capacities. Finally, we link this analysis with a basic but often overlooked fact: human cognition is likely limited by our own brain structure. However, this limitation does not apply to machine learning systems, and we should be aware of the need to learn how to exploit this augmented vision of the nature.
- Abstract(参考訳): これまでの研究では、脳内のエングラムを、リカレントニューラルネットワーク上でのオートエンコーダとして生物学的に実装することを提案した。
これらのオートエンコーダは、単純なホメオスタティックな基準から派生した、基本的な興奮/抑制モチーフから構成される。
本稿では,これらのオートエンコーダにおける潜伏空間の関連性について述べる。
我々は、これらのオートエンコーダの次元性と、符号化される情報の複雑さとの関係を考察する。
本研究では,コネクトームの種間の違いが認知能力とどのように関連しているかを論じる。
最後に、この分析を基本的だが見落とされがちな事実と結びつけます。
しかし、この制限は機械学習システムには適用されず、この強化された自然ビジョンの活用方法を学ぶ必要があることに留意する必要がある。
関連論文リスト
- Implementing engrams from a machine learning perspective: XOR as a basic motif [0.0]
我々は,XORスイッチを実装した基本モチーフに基づいて,最初のアイデアを提示する。
我々は、このXORモチーフを組み込んだ学習能力を備えた、基本的な生物学的神経構造の構築方法について検討する。
論文 参考訳(メタデータ) (2024-06-14T11:36:49Z) - Toward Neuromic Computing: Neurons as Autoencoders [0.0]
本稿では、神経バックプロパゲーションが樹状突起処理を用いて、個々のニューロンが自己エンコーディングを行うことを可能にするという考えを述べる。
非常に単純な接続重み探索と人工ニューラルネットワークモデルを用いて、フィードフォワードネットワークの隠蔽層における各ニューロンに対する自己エンコーディングのインターリーブ効果について検討した。
論文 参考訳(メタデータ) (2024-03-04T18:58:09Z) - Brain-Inspired Machine Intelligence: A Survey of
Neurobiologically-Plausible Credit Assignment [65.268245109828]
本稿では,神経生物学にインスパイアされた,あるいは動機付けられた人工ニューラルネットワークにおける信用割当を行うアルゴリズムについて検討する。
我々は、脳にインスパイアされた学習スキームを6つの一般的なファミリーにまとめ、これらを誤りのバックプロパゲーションの文脈で検討する。
本研究の成果は,神経ミメティックシステムとその構成的学習プロセスの今後の発展を促進することを目的としている。
論文 参考訳(メタデータ) (2023-12-01T05:20:57Z) - Neural-Logic Human-Object Interaction Detection [67.4993347702353]
本稿では,ニューラルロジック推論を利用した新しいHOI検出器であるL OGIC HOIと,実体間の相互作用を推測するTransformerを提案する。
具体的には,バニラトランスフォーマーの自己保持機構を改変し,人間,行動,対象>三重項を推論し,新たな相互作用を構成する。
我々はこれらの2つの特性を一階述語論理で定式化し、それらを連続空間に基底にして、我々のアプローチの学習過程を制約し、性能とゼロショットの一般化能力を向上させる。
論文 参考訳(メタデータ) (2023-11-16T11:47:53Z) - Implementing engrams from a machine learning perspective: matching for
prediction [0.0]
ニューラルネットワークを用いてエングラムを実装するコンピュータシステムを設計する方法について提案する。
オートエンコーダをベースとして,情報を圧縮形式で保存・検索するためのインデックスとして潜時ニューラルネットワークを提案する。
我々は、異なるタイプの感覚入力に対応する潜時神経空間における異なる状態が同期活性化によってどのようにリンクされるかを検討する。
論文 参考訳(メタデータ) (2023-03-01T10:05:40Z) - Competitive learning to generate sparse representations for associative
memory [0.0]
本稿では,連想記憶に適したコードに画像をエンコードする生物学的にもっともらしいネットワークを提案する。
局所受容野を専門とする神経細胞のグループに編成され、競争的なスキームを通じて学習する。
論文 参考訳(メタデータ) (2023-01-05T17:57:52Z) - Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Compositional Processing Emerges in Neural Networks Solving Math
Problems [100.80518350845668]
人工知能の最近の進歩は、大きなモデルが十分な言語データに基づいて訓練されると、文法構造が表現に現れることを示している。
我々は、この研究を数学的推論の領域にまで拡張し、どのように意味を構成するべきかについての正確な仮説を定式化することができる。
私たちの研究は、ニューラルネットワークがトレーニングデータに暗黙的に構造化された関係について何かを推測できるだけでなく、個々の意味の合成を合成全体へと導くために、この知識を展開できることを示している。
論文 参考訳(メタデータ) (2021-05-19T07:24:42Z) - Visualizing and Understanding Vision System [0.6510507449705342]
視覚認識再構成ネットワーク (RRN) を用いて, 発達, 認識, 学習, 忘れるメカニズムについて検討する。
数値認識研究では、RRNが様々な視聴条件下でオブジェクト不変性表現を維持できるのを目撃する。
学習・忘れ研究において、本来のシナプス接続のパターン特異性を保ちつつ、全シナプスを低等級に調整することで、新規な構造認識を行う。
論文 参考訳(メタデータ) (2020-06-11T07:08:49Z) - Towards a Neural Model for Serial Order in Frontal Cortex: a Brain
Theory from Memory Development to Higher-Level Cognition [53.816853325427424]
そこで本研究では,未熟な前頭前野 (PFC) が側頭葉信号の階層的パターンを検出する主要な機能を利用していることを提案する。
我々の仮説では、PFCは順序パターンの形で時間的配列の階層構造を検出し、それらを脳の異なる部分で階層的に情報をインデックスするために利用する。
これにより、抽象的な知識を操作し、時間的に順序付けられた情報を計画するための言語対応の脳にツールを提供する。
論文 参考訳(メタデータ) (2020-05-22T14:29:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。