論文の概要: Implementing engrams from a machine learning perspective: matching for
prediction
- arxiv url: http://arxiv.org/abs/2303.01253v1
- Date: Wed, 1 Mar 2023 10:05:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-03 14:20:56.504366
- Title: Implementing engrams from a machine learning perspective: matching for
prediction
- Title(参考訳): 機械学習の観点からのエングラムの実装:予測のマッチング
- Authors: Jesus Marco de Lucas
- Abstract要約: ニューラルネットワークを用いてエングラムを実装するコンピュータシステムを設計する方法について提案する。
オートエンコーダをベースとして,情報を圧縮形式で保存・検索するためのインデックスとして潜時ニューラルネットワークを提案する。
我々は、異なるタイプの感覚入力に対応する潜時神経空間における異なる状態が同期活性化によってどのようにリンクされるかを検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Despite evidence for the existence of engrams as memory support structures in
our brains, there is no consensus framework in neuroscience as to what their
physical implementation might be. Here we propose how we might design a
computer system to implement engrams using neural networks, with the main aim
of exploring new ideas using machine learning techniques, guided by challenges
in neuroscience. Building on autoencoders, we propose latent neural spaces as
indexes for storing and retrieving information in a compressed format. We
consider this technique as a first step towards predictive learning:
autoencoders are designed to compare reconstructed information with the
original information received, providing a kind of predictive ability, which is
an attractive evolutionary argument. We then consider how different states in
latent neural spaces corresponding to different types of sensory input could be
linked by synchronous activation, providing the basis for a sparse
implementation of memory using concept neurons. Finally, we list some of the
challenges and questions that link neuroscience and data science and that could
have implications for both fields, and conclude that a more interdisciplinary
approach is needed, as many scientists have already suggested.
- Abstract(参考訳): 脳における記憶支援構造としてのエングラムの存在の証拠はあるものの、その物理的実装がどのようなものであるかについての神経科学のコンセンサスフレームワークは存在しない。
本稿では,ニューロサイエンスの課題に導かれる機械学習技術を用いて新しいアイデアを探求することを目的として,ニューラルネットワークを用いたエングラムを実装するコンピュータシステムを設計する方法について提案する。
オートエンコーダを基盤として,情報格納と検索のためのインデックスとして,潜在性ニューラルスペースを提案する。
オートエンコーダは、再構成された情報と受信した元の情報を比較するように設計されており、魅力的な進化論証である予測能力を提供する。
次に、異なる種類の感覚入力に対応する潜在神経空間の異なる状態が同期活性化によってどのようにリンクされるかを検討し、概念ニューロンを用いたメモリの疎実装の基礎となる。
最後に、神経科学とデータサイエンスを結びつけ、両方の分野に影響を及ぼす可能性のある課題と疑問をリストアップし、多くの科学者が既に提案しているように、より学際的なアプローチが必要であると結論付けます。
関連論文リスト
- Implementing engrams from a machine learning perspective: the relevance of a latent space [0.0]
これまでの研究では、脳内のエングラムを、リカレントニューラルネットワーク上でのオートエンコーダとして生物学的に実装することを提案した。
本稿では,これらのオートエンコーダにおける潜伏空間の関連性について述べる。
論文 参考訳(メタデータ) (2024-07-23T16:24:29Z) - MindBridge: A Cross-Subject Brain Decoding Framework [60.58552697067837]
脳の復号化は、獲得した脳信号から刺激を再構築することを目的としている。
現在、脳の復号化はモデルごとのオブジェクトごとのパラダイムに限られている。
我々は,1つのモデルのみを用いることで,オブジェクト間脳デコーディングを実現するMindBridgeを提案する。
論文 参考訳(メタデータ) (2024-04-11T15:46:42Z) - Hebbian Learning based Orthogonal Projection for Continual Learning of
Spiking Neural Networks [74.3099028063756]
我々は,側方接続とヘビアン学習に基づくニューラル操作を用いた新しい手法を開発した。
我々は,反復する側方接続におけるヘビアン学習と反ヘビアン学習が,神経活動の主部分空間を効果的に抽出できることを示した。
我々の手法は、ほとんど忘れることなくニューラルネットワークをスパイクするために一貫して解決する。
論文 参考訳(メタデータ) (2024-02-19T09:29:37Z) - Brain-Inspired Machine Intelligence: A Survey of
Neurobiologically-Plausible Credit Assignment [65.268245109828]
本稿では,神経生物学にインスパイアされた,あるいは動機付けられた人工ニューラルネットワークにおける信用割当を行うアルゴリズムについて検討する。
我々は、脳にインスパイアされた学習スキームを6つの一般的なファミリーにまとめ、これらを誤りのバックプロパゲーションの文脈で検討する。
本研究の成果は,神経ミメティックシステムとその構成的学習プロセスの今後の発展を促進することを目的としている。
論文 参考訳(メタデータ) (2023-12-01T05:20:57Z) - Deep Neural Networks and Brain Alignment: Brain Encoding and Decoding (Survey) [9.14580723964253]
AIモデルを使って脳についての洞察を得ることができるか?
脳記録に関する深層学習モデルの情報はどのようになっているか?
復号化モデルは、fMRIが与えられた刺激を再構成する逆問題を解決する。
近年,自然言語処理,コンピュータビジョン,音声に対するディープラーニングモデルの有効性に触発されて,ニューラルコーディングや復号化モデルが提案されている。
論文 参考訳(メタデータ) (2023-07-17T06:54:36Z) - Redundancy and Concept Analysis for Code-trained Language Models [5.726842555987591]
コード学習言語モデルは、様々なコードインテリジェンスタスクに非常に効果的であることが証明されている。
計算ボトルネックとメモリ制約のため、多くのソフトウェアエンジニアリングアプリケーションのトレーニングとデプロイが難しい場合がある。
我々は,ソースコードモデルに対する最初のニューロンレベルの解析を行い,潜在表現内でのテクスチエントニューロンの同定を行う。
論文 参考訳(メタデータ) (2023-05-01T15:22:41Z) - BrainBERT: Self-supervised representation learning for intracranial
recordings [18.52962864519609]
我々は、神経科学に現代的な表現学習アプローチをもたらす頭蓋内記録のための再利用可能な変換器BrainBERTを開発した。
NLPや音声認識と同様に、この変換器は複雑な概念を高い精度で、はるかに少ないデータで分類することができる。
将来的には、表現学習を使用することで、はるかに多くの概念がニューラル録音から切り離され、言語モデルがアンロックされた言語のように脳をアンロックする可能性がある。
論文 参考訳(メタデータ) (2023-02-28T07:40:37Z) - Constraints on the design of neuromorphic circuits set by the properties
of neural population codes [61.15277741147157]
脳内では、情報はコード化され、伝達され、行動を伝えるために使用される。
ニューロモルフィック回路は、脳内のニューロンの集団が使用するものと互換性のある方法で情報を符号化する必要がある。
論文 参考訳(メタデータ) (2022-12-08T15:16:04Z) - Sequence learning in a spiking neuronal network with memristive synapses [0.0]
脳計算の中心にある中核的な概念は、シーケンス学習と予測である。
ニューロモルフィックハードウェアは、脳が情報を処理する方法をエミュレートし、ニューロンとシナプスを直接物理的基質にマッピングする。
シークエンス学習モデルにおける生物学的シナプスの代替としてReRAMデバイスを使用することの可能性について検討する。
論文 参考訳(メタデータ) (2022-11-29T21:07:23Z) - Neuromorphic Artificial Intelligence Systems [58.1806704582023]
フォン・ノイマンアーキテクチャと古典的ニューラルネットワークに基づく現代のAIシステムは、脳と比較して多くの基本的な制限がある。
この記事では、そのような制限と、それらが緩和される方法について論じる。
これは、これらの制限が克服されている現在利用可能なニューロモーフィックAIプロジェクトの概要を示す。
論文 参考訳(メタデータ) (2022-05-25T20:16:05Z) - Neuro-Symbolic Learning of Answer Set Programs from Raw Data [54.56905063752427]
Neuro-Symbolic AIは、シンボリックテクニックの解釈可能性と、生データから学ぶ深層学習の能力を組み合わせることを目的としている。
本稿では,ニューラルネットワークを用いて生データから潜在概念を抽出するNSIL(Neuro-Symbolic Inductive Learner)を提案する。
NSILは表現力のある知識を学習し、計算的に複雑な問題を解き、精度とデータ効率の観点から最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-05-25T12:41:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。