論文の概要: How the (Tensor-) Brain uses Embeddings and Embodiment to Encode Senses and Symbols
- arxiv url: http://arxiv.org/abs/2409.12846v2
- Date: Sun, 29 Dec 2024 09:20:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-31 16:03:38.722305
- Title: How the (Tensor-) Brain uses Embeddings and Embodiment to Encode Senses and Symbols
- Title(参考訳): テンソル脳はどのようにして埋め込みと身体を使って感覚とシンボルをエンコードするか
- Authors: Volker Tresp, Hang Li,
- Abstract要約: Brain (TB) は知覚と記憶の計算モデルとして導入された。
本稿では,TBモデルの概要を述べるとともに,その機能に関する最近の展開と洞察を紹介する。
- 参考スコア(独自算出の注目度): 26.516135696182392
- License:
- Abstract: The Tensor Brain (TB) has been introduced as a computational model for perception and memory. This paper provides an overview of the TB model, incorporating recent developments and insights into its functionality. The TB is composed of two primary layers: the representation layer and the index layer. The representation layer serves as a model for the subsymbolic global workspace, a concept derived from consciousness research. Its state represents the cognitive brain state, capturing the dynamic interplay of sensory and cognitive processes. The index layer, in contrast, contains symbolic representations for concepts, time instances, and predicates. In a bottom-up operation, sensory input activates the representation layer, which then triggers associated symbolic labels in the index layer. Conversely, in a top-down operation, symbols in the index layer activate the representation layer, which in turn influences earlier processing layers through embodiment. This top-down mechanism underpins semantic memory, enabling the integration of abstract knowledge into perceptual and cognitive processes. A key feature of the TB is its use of concept embeddings, which function as connection weights linking the index layer to the representation layer. As a concept's ``DNA,'' these embeddings consolidate knowledge from diverse experiences, sensory modalities, and symbolic representations, providing a unified framework for learning and memory.
- Abstract(参考訳): Tensor Brain (TB) は知覚と記憶の計算モデルとして導入された。
本稿では,TBモデルの概要を述べるとともに,その機能に関する最近の展開と知見を紹介する。
TBは2つの主層(表現層とインデックス層)から構成される。
表現層は、意識研究から派生した概念である、サブシンボリックなグローバルワークスペースのモデルとして機能する。
その状態は認知脳の状態を表し、感覚と認知過程の動的な相互作用を捉えている。
対照的にインデックス層には、概念、時間インスタンス、述語に関する記号表現が含まれている。
ボトムアップ操作では、感覚入力が表現層を起動し、インデックス層に関連付けられたシンボルラベルをトリガーする。
逆に、トップダウン操作では、インデックス層内のシンボルが表現層を活性化し、エンボディメントを通じて以前の処理層に影響を与える。
このトップダウンメカニズムはセマンティックメモリの基盤となり、抽象的な知識を知覚的および認知的プロセスに統合することができる。
TBの重要な特徴は、インデックス層と表現層をリンクする接続重みとして機能する概念埋め込みの利用である。
概念の「`DNA'」として、これらの埋め込みは多様な経験、感覚のモダリティ、象徴的な表現から知識を集約し、学習と記憶のための統一された枠組みを提供する。
関連論文リスト
- Simple and Effective Transfer Learning for Neuro-Symbolic Integration [50.592338727912946]
この問題の潜在的な解決策はNeuro-Symbolic Integration (NeSy)であり、ニューラルアプローチとシンボリック推論を組み合わせる。
これらの手法のほとんどは、認識をシンボルにマッピングするニューラルネットワークと、下流タスクの出力を予測する論理的論理的推論を利用する。
それらは、緩やかな収束、複雑な知覚タスクの学習困難、局所的なミニマへの収束など、いくつかの問題に悩まされている。
本稿では,これらの問題を改善するための簡易かつ効果的な方法を提案する。
論文 参考訳(メタデータ) (2024-02-21T15:51:01Z) - Minding Language Models' (Lack of) Theory of Mind: A Plug-and-Play
Multi-Character Belief Tracker [72.09076317574238]
ToMは,読解における文字の信念状態を調べるためのプラグアンドプレイ方式である。
ToMは、教師付きベースラインと比較して、配電性能が堅牢でありながら、ゼロオーダー設定でのオフ・ザ・シェルフニューラルネットワーク理論の考え方を強化する。
論文 参考訳(メタデータ) (2023-06-01T17:24:35Z) - The Roles of Symbols in Neural-based AI: They are Not What You Think! [25.450989579215708]
知的エージェントのための新しいニューロシンボリック仮説と有望なアーキテクチャを提案する。
私たちの仮説と関連するアーキテクチャは、シンボルが知的システムの将来に重要なままであることを示している。
論文 参考訳(メタデータ) (2023-04-26T15:33:41Z) - Competitive learning to generate sparse representations for associative
memory [0.0]
本稿では,連想記憶に適したコードに画像をエンコードする生物学的にもっともらしいネットワークを提案する。
局所受容野を専門とする神経細胞のグループに編成され、競争的なスキームを通じて学習する。
論文 参考訳(メタデータ) (2023-01-05T17:57:52Z) - Toward a realistic model of speech processing in the brain with
self-supervised learning [67.7130239674153]
生波形で訓練された自己教師型アルゴリズムは有望な候補である。
We show that Wav2Vec 2.0 learns brain-like representations with little as 600 hours of unlabelled speech。
論文 参考訳(メタデータ) (2022-06-03T17:01:46Z) - HINT: Hierarchical Neuron Concept Explainer [35.07575535848492]
人類の階層的認知プロセスに触発された階層的概念を研究する。
本稿では,ニューロンと階層概念の双方向関係を効果的に構築するために,階層型ニューロンコンセプT説明器(HINT)を提案する。
HINTは、概念の暗黙的な階層的関係がニューロンに埋め込まれているかどうかを体系的に定量的に研究することを可能にする。
論文 参考訳(メタデータ) (2022-03-27T03:25:36Z) - Emergence of Machine Language: Towards Symbolic Intelligence with Neural
Networks [73.94290462239061]
本稿では、ニューラルネットワークを用いてシンボルとコネクショナリズムの原理を組み合わせることで、離散表現を導出することを提案する。
対話型環境とタスクを設計することにより、機械が自発的で柔軟でセマンティックな言語を生成できることを実証した。
論文 参考訳(メタデータ) (2022-01-14T14:54:58Z) - The Tensor Brain: A Unified Theory of Perception, Memory and Semantic
Decoding [16.37225919719441]
本稿では,認識と記憶の統一的計算理論を提案する。
我々のモデルでは、知覚、エピソード記憶、セマンティック記憶は異なる機能モードと操作モードで実現される。
論文 参考訳(メタデータ) (2021-09-27T23:32:44Z) - Compositional Explanations of Neurons [52.71742655312625]
本稿では, 合成論理的概念を同定し, 深部表現におけるニューロンの説明手順について述べる。
本稿では,視覚と自然言語処理のモデルにおける解釈可能性に関するいくつかの疑問に答えるために,この手順を用いる。
論文 参考訳(メタデータ) (2020-06-24T20:37:05Z) - Towards a Neural Model for Serial Order in Frontal Cortex: a Brain
Theory from Memory Development to Higher-Level Cognition [53.816853325427424]
そこで本研究では,未熟な前頭前野 (PFC) が側頭葉信号の階層的パターンを検出する主要な機能を利用していることを提案する。
我々の仮説では、PFCは順序パターンの形で時間的配列の階層構造を検出し、それらを脳の異なる部分で階層的に情報をインデックスするために利用する。
これにより、抽象的な知識を操作し、時間的に順序付けられた情報を計画するための言語対応の脳にツールを提供する。
論文 参考訳(メタデータ) (2020-05-22T14:29:51Z) - The Tensor Brain: Semantic Decoding for Perception and Memory [25.49830575143093]
我々は知識グラフとテンソルの数学的モデルを用いて知覚と記憶を分析する。
知覚と記憶の生物学的実現は情報処理に制約を課すと主張する。
特に,明示的な認識と宣言的記憶は意味的デコーダを必要とすることを示唆する。
論文 参考訳(メタデータ) (2020-01-29T07:48:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。