論文の概要: How the (Tensor-) Brain uses Embeddings and Embodiment to Encode Senses and Decode Symbols
- arxiv url: http://arxiv.org/abs/2409.12846v1
- Date: Thu, 19 Sep 2024 15:45:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 13:10:09.689443
- Title: How the (Tensor-) Brain uses Embeddings and Embodiment to Encode Senses and Decode Symbols
- Title(参考訳): テンソル脳はどのようにしてエンベディングとエンボディメントを使って感覚をコードし、シンボルをデコードするか
- Authors: Volker Tresp, Hang Li,
- Abstract要約: 近年の発展を含むテンソル脳モデルの概要について概説する。
表象層は、意識研究からの象徴的なグローバルワークスペースのモデルである。
インデックス層には、概念、時間インスタンス、述語のためのシンボルが含まれている。
- 参考スコア(独自算出の注目度): 26.516135696182392
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The tensor brain has been introduced as a computational model for perception and memory. We provide an overview of the tensor brain model, including recent developments. The tensor brain has two major layers: the representation layer and the index layer. The representation layer is a model for the subsymbolic global workspace from consciousness research. The state of the representation layer is the cognitive brain state. The index layer contains symbols for concepts, time instances, and predicates. In a bottom-up operation, the cognitive brain state is encoded by the index layer as symbolic labels. In a top-down operation, symbols are decoded and written to the representation layer. This feeds to earlier processing layers as embodiment. The top-down operation became the basis for semantic memory. The embedding vector of a concept forms the connection weights between its index and the representation layer. The embedding is the signature or ``DNA'' of a concept, which is decoded by the brain when its index is activated. It integrates all that is known about a concept from different experiences, modalities, and symbolic decodings. Although being computational, it has been suggested that the tensor brain might be related to the actual operation of the brain. The sequential nature of symbol generation might have been a prerequisite to the generation of natural language. We describe an attention mechanism and discuss multitasking by multiplexing. We emphasize the inherent multimodality of the tensor brain. Finally, we discuss embedded and symbolic reasoning.
- Abstract(参考訳): テンソル脳は知覚と記憶の計算モデルとして導入された。
本稿では、最近の発展を含むテンソル脳モデルの概要について述べる。
テンソル脳には、表現層とインデックス層という2つの大きな層がある。
表象層は、意識研究からの象徴的なグローバルワークスペースのモデルである。
表象層の状態は認知脳状態である。
インデックス層には、概念、時間インスタンス、述語のためのシンボルが含まれている。
ボトムアップ操作では、認知脳状態は、インデックス層によってシンボルラベルとして符号化される。
トップダウン操作では、シンボルがデコードされ、表現層に書き込まれる。
これは、以前の処理層にエボディメントとして供給する。
トップダウン操作はセマンティックメモリの基礎となった。
概念の埋め込みベクトルは、その指数と表現層の間の接続重みを形成する。
埋め込みは概念の「`DNA'」のシグネチャであり、インデックスが活性化された時に脳によってデコードされる。
異なる経験、モダリティ、シンボリックデコーディングから知られている概念をすべて統合している。
計算はしたものの、テンソル脳は実際の脳の動作と関連している可能性があることが示唆されている。
記号生成のシーケンシャルな性質は、自然言語の生成の前提条件であったかもしれない。
注意機構を記述し、多重化によるマルチタスキングについて議論する。
我々はテンソル脳の本質的な多様性を強調する。
最後に,組込みおよび記号的推論について論じる。
関連論文リスト
- Simple and Effective Transfer Learning for Neuro-Symbolic Integration [50.592338727912946]
この問題の潜在的な解決策はNeuro-Symbolic Integration (NeSy)であり、ニューラルアプローチとシンボリック推論を組み合わせる。
これらの手法のほとんどは、認識をシンボルにマッピングするニューラルネットワークと、下流タスクの出力を予測する論理的論理的推論を利用する。
それらは、緩やかな収束、複雑な知覚タスクの学習困難、局所的なミニマへの収束など、いくつかの問題に悩まされている。
本稿では,これらの問題を改善するための簡易かつ効果的な方法を提案する。
論文 参考訳(メタデータ) (2024-02-21T15:51:01Z) - Minding Language Models' (Lack of) Theory of Mind: A Plug-and-Play
Multi-Character Belief Tracker [72.09076317574238]
ToMは,読解における文字の信念状態を調べるためのプラグアンドプレイ方式である。
ToMは、教師付きベースラインと比較して、配電性能が堅牢でありながら、ゼロオーダー設定でのオフ・ザ・シェルフニューラルネットワーク理論の考え方を強化する。
論文 参考訳(メタデータ) (2023-06-01T17:24:35Z) - The Roles of Symbols in Neural-based AI: They are Not What You Think! [25.450989579215708]
知的エージェントのための新しいニューロシンボリック仮説と有望なアーキテクチャを提案する。
私たちの仮説と関連するアーキテクチャは、シンボルが知的システムの将来に重要なままであることを示している。
論文 参考訳(メタデータ) (2023-04-26T15:33:41Z) - Competitive learning to generate sparse representations for associative
memory [0.0]
本稿では,連想記憶に適したコードに画像をエンコードする生物学的にもっともらしいネットワークを提案する。
局所受容野を専門とする神経細胞のグループに編成され、競争的なスキームを通じて学習する。
論文 参考訳(メタデータ) (2023-01-05T17:57:52Z) - Toward a realistic model of speech processing in the brain with
self-supervised learning [67.7130239674153]
生波形で訓練された自己教師型アルゴリズムは有望な候補である。
We show that Wav2Vec 2.0 learns brain-like representations with little as 600 hours of unlabelled speech。
論文 参考訳(メタデータ) (2022-06-03T17:01:46Z) - HINT: Hierarchical Neuron Concept Explainer [35.07575535848492]
人類の階層的認知プロセスに触発された階層的概念を研究する。
本稿では,ニューロンと階層概念の双方向関係を効果的に構築するために,階層型ニューロンコンセプT説明器(HINT)を提案する。
HINTは、概念の暗黙的な階層的関係がニューロンに埋め込まれているかどうかを体系的に定量的に研究することを可能にする。
論文 参考訳(メタデータ) (2022-03-27T03:25:36Z) - Emergence of Machine Language: Towards Symbolic Intelligence with Neural
Networks [73.94290462239061]
本稿では、ニューラルネットワークを用いてシンボルとコネクショナリズムの原理を組み合わせることで、離散表現を導出することを提案する。
対話型環境とタスクを設計することにより、機械が自発的で柔軟でセマンティックな言語を生成できることを実証した。
論文 参考訳(メタデータ) (2022-01-14T14:54:58Z) - The Tensor Brain: A Unified Theory of Perception, Memory and Semantic
Decoding [16.37225919719441]
本稿では,認識と記憶の統一的計算理論を提案する。
我々のモデルでは、知覚、エピソード記憶、セマンティック記憶は異なる機能モードと操作モードで実現される。
論文 参考訳(メタデータ) (2021-09-27T23:32:44Z) - Compositional Explanations of Neurons [52.71742655312625]
本稿では, 合成論理的概念を同定し, 深部表現におけるニューロンの説明手順について述べる。
本稿では,視覚と自然言語処理のモデルにおける解釈可能性に関するいくつかの疑問に答えるために,この手順を用いる。
論文 参考訳(メタデータ) (2020-06-24T20:37:05Z) - Towards a Neural Model for Serial Order in Frontal Cortex: a Brain
Theory from Memory Development to Higher-Level Cognition [53.816853325427424]
そこで本研究では,未熟な前頭前野 (PFC) が側頭葉信号の階層的パターンを検出する主要な機能を利用していることを提案する。
我々の仮説では、PFCは順序パターンの形で時間的配列の階層構造を検出し、それらを脳の異なる部分で階層的に情報をインデックスするために利用する。
これにより、抽象的な知識を操作し、時間的に順序付けられた情報を計画するための言語対応の脳にツールを提供する。
論文 参考訳(メタデータ) (2020-05-22T14:29:51Z) - The Tensor Brain: Semantic Decoding for Perception and Memory [25.49830575143093]
我々は知識グラフとテンソルの数学的モデルを用いて知覚と記憶を分析する。
知覚と記憶の生物学的実現は情報処理に制約を課すと主張する。
特に,明示的な認識と宣言的記憶は意味的デコーダを必要とすることを示唆する。
論文 参考訳(メタデータ) (2020-01-29T07:48:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。