論文の概要: Neurosymbolic Systems of Perception & Cognition: The Role of Attention
- arxiv url: http://arxiv.org/abs/2112.01603v1
- Date: Thu, 2 Dec 2021 20:53:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-06 15:08:01.188523
- Title: Neurosymbolic Systems of Perception & Cognition: The Role of Attention
- Title(参考訳): 認知と認知のニューロシンボリックシステム--注意の役割
- Authors: Hugo Latapie, Ozkan Kilic, Kristinn R. Thorisson, Pei Wang, Patrick
Hammer
- Abstract要約: 累積学習を目的とした認知アーキテクチャは、必要な情報と制御構造を提供する必要がある。
あらゆる抽象レベルでの知識は、ニューロシンボリック情報(Neurosymbolic information)と呼ばれるものを含んでいる、と我々は主張する。
- 参考スコア(独自算出の注目度): 6.199795410316599
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: A cognitive architecture aimed at cumulative learning must provide the
necessary information and control structures to allow agents to learn
incrementally and autonomously from their experience. This involves managing an
agent's goals as well as continuously relating sensory information to these in
its perception-cognition information stack. The more varied the environment of
a learning agent is, the more general and flexible must be these mechanisms to
handle a wider variety of relevant patterns, tasks, and goal structures. While
many researchers agree that information at different levels of abstraction
likely differs in its makeup and structure and processing mechanisms, agreement
on the particulars of such differences is not generally shared in the research
community. A binary processing architecture (often referred to as System-1 and
System-2) has been proposed as a model of cognitive processing for low- and
high-level information, respectively. We posit that cognition is not binary in
this way and that knowledge at any level of abstraction involves what we refer
to as neurosymbolic information, meaning that data at both high and low levels
must contain both symbolic and subsymbolic information. Further, we argue that
the main differentiating factor between the processing of high and low levels
of data abstraction can be largely attributed to the nature of the involved
attention mechanisms. We describe the key arguments behind this view and review
relevant evidence from the literature.
- Abstract(参考訳): 累積学習を目的とした認知アーキテクチャは、エージェントが経験から漸進的に自律的に学習できるように、必要な情報と制御構造を提供する必要がある。
これはエージェントの目標を管理したり、知覚情報スタック内のこれらに感覚情報を継続的に関連付けることを含む。
学習エージェントの環境がより多様になるほど、より一般的で柔軟なメカニズムは、より多様なパターン、タスク、目標構造を扱うためのメカニズムでなければならない。
多くの研究者は、異なる抽象化レベルの情報はその構成、構造、処理メカニズムで異なる可能性が高いと認めているが、そのような違いの特質に関する合意は研究コミュニティでは一般に共有されていない。
低レベルの情報に対する認知処理のモデルとして、バイナリ処理アーキテクチャ(しばしば System-1 と System-2 と呼ばれる)が提案されている。
この方法で認知は二項的ではなく、あらゆる抽象レベルでの知識はニューロシンボリック情報(Neurosymbolic information)と呼ばれるもので、ハイレベルとローレベルの両方のデータはシンボル情報とサブシンボリック情報の両方を含まなければならない。
さらに、高レベルのデータ抽象化処理と低レベルのデータ抽象化処理の主な差別化要因は、主に関連する注意機構の性質に起因していると論じる。
本論の背景にある重要な論点を述べるとともに,文献からの証拠をレビューする。
関連論文リスト
- Identifiable Causal Representation Learning: Unsupervised, Multi-View, and Multi-Environment [10.814585613336778]
因果表現学習は、機械学習のコアとなる強みと因果性を組み合わせることを目的としている。
この論文は、CRLが直接の監督なしに何が可能であるかを調査し、理論的基礎に寄与する。
論文 参考訳(メタデータ) (2024-06-19T09:14:40Z) - Disentangling and Integrating Relational and Sensory Information in Transformer Architectures [2.5322020135765464]
我々は、個々の物体の性質に関する感覚情報と、物体間の関係に関する関係情報とを区別する。
本稿では,感性情報の流れを指示する感覚的注意機構と,関係情報の流れを指示する新たな関係的注意機構とを特徴とするトランスフォーマーフレームワークのアーキテクチャ拡張を提案する。
論文 参考訳(メタデータ) (2024-05-26T23:52:51Z) - Neural Causal Abstractions [63.21695740637627]
我々は、変数とそのドメインをクラスタリングすることで、因果抽象化の新しいファミリーを開発する。
本稿では,ニューラルネットワークモデルを用いて,そのような抽象化が現実的に学習可能であることを示す。
本実験は、画像データを含む高次元設定に因果推論をスケールする方法を記述し、その理論を支持する。
論文 参考訳(メタデータ) (2024-01-05T02:00:27Z) - Synergistic information supports modality integration and flexible
learning in neural networks solving multiple tasks [107.8565143456161]
本稿では,様々な認知タスクを行う単純な人工ニューラルネットワークが採用する情報処理戦略について検討する。
結果は、ニューラルネットワークが複数の多様なタスクを学習するにつれて、シナジーが増加することを示している。
トレーニング中に無作為にニューロンを停止させると、ネットワークの冗長性が増加し、ロバスト性の増加に対応する。
論文 参考訳(メタデータ) (2022-10-06T15:36:27Z) - AIGenC: An AI generalisation model via creativity [1.933681537640272]
本稿では,創造性に関する認知理論に触発された計算モデル(AIGenC)を紹介する。
人工エージェントが変換可能な表現を学習、使用、生成するために必要なコンポーネントを配置する。
本稿では, 人工エージェントの配当効率を向上するモデルの有効性について論じる。
論文 参考訳(メタデータ) (2022-05-19T17:43:31Z) - Understand me, if you refer to Aspect Knowledge: Knowledge-aware Gated
Recurrent Memory Network [54.735400754548635]
アスペクトレベルの感情分類(ASC)は、レビューで言及された特定の側面に対する微粒な感情極性を予測することを目的としている。
最近のASCの進歩にもかかわらず、マシンが重要な側面の感情を推測できるようにすることは依然として困難である。
本稿では,(1)アスペクト知識の欠如によるアスペクト表現がアスペクトの正確な意味と特性情報を表現するのに不十分であること,(2)先行研究は局所的な構文情報とグローバルな関係情報のみを捉えること,という2つの課題に対処する。
論文 参考訳(メタデータ) (2021-08-05T03:39:30Z) - Affect Analysis in-the-wild: Valence-Arousal, Expressions, Action Units
and a Unified Framework [83.21732533130846]
Aff-Wild と Aff-Wild2 の2つである。
これは、これらのデータベースで訓練された深層ニューラルネットワークの2つのクラスの設計を示す。
インパクト認識を共同で学び、効果的に一般化し、実行することができる新しいマルチタスクおよび全体主義のフレームワークが提示されます。
論文 参考訳(メタデータ) (2021-03-29T17:36:20Z) - Learning to Combine Top-Down and Bottom-Up Signals in Recurrent Neural
Networks with Attention over Modules [81.1967157385085]
ロバスト知覚はボトムアップ信号とトップダウン信号の両方に依存している。
ボトムアップ信号とトップダウン信号が動的に結合されるディープリカレントニューラルネットワークアーキテクチャについて検討する。
言語モデリング、逐次画像分類、映像予測、強化学習における様々なベンチマークにおいて、遠方方向情報フローが強いベースライン上で結果を改善することを実証する。
論文 参考訳(メタデータ) (2020-06-30T17:26:19Z) - Neuro-symbolic Architectures for Context Understanding [59.899606495602406]
本稿では,データ駆動型アプローチと知識駆動型アプローチの強みを組み合わせたフレームワークとして,ハイブリッドAI手法を提案する。
具体的には、知識ベースを用いて深層ニューラルネットワークの学習過程を導く方法として、ニューロシンボリズムの概念を継承する。
論文 参考訳(メタデータ) (2020-03-09T15:04:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。