論文の概要: Deep Learning and the Global Workspace Theory
- arxiv url: http://arxiv.org/abs/2012.10390v2
- Date: Sat, 20 Feb 2021 00:33:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 20:35:35.907221
- Title: Deep Learning and the Global Workspace Theory
- Title(参考訳): 深層学習とグローバルワークスペース理論
- Authors: Rufin VanRullen and Ryota Kanai
- Abstract要約: 近年のディープラーニングの進歩により、人工知能は多くの感覚、知覚、言語的、認知的なタスクにおいて、人間レベルのパフォーマンスに近いものになった。
しかし、新しい脳にインスパイアされた認知アーキテクチャーの必要性はますます高まっている。
グローバルワークスペース理論(Global Workspace theory)は、特定のモジュールのネットワーク間で情報を統合し、分散し、より高いレベルの認知と認識を作り出す大規模システムを指す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in deep learning have allowed Artificial Intelligence (AI) to
reach near human-level performance in many sensory, perceptual, linguistic or
cognitive tasks. There is a growing need, however, for novel, brain-inspired
cognitive architectures. The Global Workspace theory refers to a large-scale
system integrating and distributing information among networks of specialized
modules to create higher-level forms of cognition and awareness. We argue that
the time is ripe to consider explicit implementations of this theory using deep
learning techniques. We propose a roadmap based on unsupervised neural
translation between multiple latent spaces (neural networks trained for
distinct tasks, on distinct sensory inputs and/or modalities) to create a
unique, amodal global latent workspace (GLW). Potential functional advantages
of GLW are reviewed, along with neuroscientific implications.
- Abstract(参考訳): 近年のディープラーニングの進歩により、人工知能(AI)は多くの感覚、知覚、言語、認知のタスクにおいて、人間レベルのパフォーマンスに近いものになった。
しかし、新しい脳にインスパイアされた認知アーキテクチャの必要性は高まっている。
グローバルワークスペース理論(global workspace theory)は、特殊モジュールのネットワーク間で情報を統合・配布し、より高レベルの認知と認識を作り出す大規模システムを指す。
深層学習技術を用いて,この理論の明示的な実装を考えるのは時期尚早である。
本稿では,複数の潜在空間(異なるタスク,異なる感覚入力および/またはモダリティを訓練したニューラルネットワーク)間の教師なしのニューラル翻訳に基づいて,ユニークなグローバル潜在空間(glw)を作成するロードマップを提案する。
glwの機能的利点と神経科学的な影響について検討する。
関連論文リスト
- Enhancing learning in spiking neural networks through neuronal heterogeneity and neuromodulatory signaling [52.06722364186432]
人工ニューラルネットワーク(ANN)の強化のための生物学的インフォームドフレームワークを提案する。
提案したデュアルフレームアプローチは、多様なスパイキング動作をエミュレートするためのスパイキングニューラルネットワーク(SNN)の可能性を強調している。
提案手法は脳にインスパイアされたコンパートメントモデルとタスク駆動型SNN, バイオインスピレーション, 複雑性を統合している。
論文 参考訳(メタデータ) (2024-07-05T14:11:28Z) - Unveiling A Core Linguistic Region in Large Language Models [49.860260050718516]
本稿では,脳局在化をプロトタイプとして用いた類似研究を行う。
我々は、言語能力に対応する大規模言語モデルにおいて、中核領域を発見した。
我々は,言語能力の向上が必ずしもモデルの知識レベルの向上に伴わないことを観察する。
論文 参考訳(メタデータ) (2023-10-23T13:31:32Z) - Brain-inspired learning in artificial neural networks: a review [5.064447369892274]
人工ニューラルネットワークにおける脳にインスパイアされた学習表現について概説する。
これらのネットワークの能力を高めるために, シナプス可塑性などの生物学的に妥当な機構の統合について検討する。
論文 参考訳(メタデータ) (2023-05-18T18:34:29Z) - Interplay between depth of neural networks and locality of target
functions [5.33024001730262]
対象関数の深度と局所性の間に顕著な相互作用を報告した。
深度は局所関数の学習には有益であるが,グローバル関数の学習には有害であることがわかった。
論文 参考訳(メタデータ) (2022-01-28T12:41:24Z) - Towards continual task learning in artificial neural networks: current
approaches and insights from neuroscience [0.0]
人間や他の動物が、多様で、しばしば干渉し、知識の範囲を学習する能力は、自然知性の目印である。
人工知能がさまざまなタスクやドメインをまたいで学習できることは、人工知能の明確な目標である。
論文 参考訳(メタデータ) (2021-12-28T13:50:51Z) - WenLan 2.0: Make AI Imagine via a Multimodal Foundation Model [74.4875156387271]
我々は,膨大なマルチモーダル(視覚的・テキスト的)データを事前学習した新しい基礎モデルを開発する。
そこで本研究では,様々な下流タスクにおいて,最先端の成果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-27T12:25:21Z) - Cognitively Inspired Learning of Incremental Drifting Concepts [31.3178953771424]
神経系学習機構にインスパイアされた我々は、ディープニューラルネットワークが新しい概念を学習することを可能にする計算モデルを開発した。
我々のモデルは、過去の学習経験に新たな経験を蓄積し、タスク間の干渉を引き起こすことなく擬似データポイントを生成することができる。
論文 参考訳(メタデータ) (2021-10-09T23:26:29Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z) - Credit Assignment in Neural Networks through Deep Feedback Control [59.14935871979047]
ディープフィードバックコントロール(Deep Feedback Control, DFC)は、フィードバックコントローラを使用して、望ましい出力ターゲットにマッチするディープニューラルネットワークを駆動し、クレジット割り当てに制御信号を使用する新しい学習方法である。
学習規則は空間と時間において完全に局所的であり、幅広い接続パターンに対するガウス・ニュートンの最適化を近似する。
さらに,DFCと皮質錐体ニューロンのマルチコンパートメントモデルと,局所的な電圧依存性のシナプス可塑性規則を関連づける。
論文 参考訳(メタデータ) (2021-06-15T05:30:17Z) - What can linearized neural networks actually say about generalization? [67.83999394554621]
ある無限大のニューラルネットワークにおいて、ニューラル・タンジェント・カーネル(NTK)理論は一般化を完全に特徴づける。
線形近似は、ニューラルネットワークの特定のタスクの学習複雑性を確実にランク付けできることを示す。
我々の研究は、将来の理論的研究を刺激する新しい深層学習現象の具体例を提供する。
論文 参考訳(メタデータ) (2021-06-12T13:05:11Z) - The Unreasonable Effectiveness of Deep Learning in Artificial
Intelligence [1.5229257192293197]
ディープ・ラーニング・ネットワークは、高いレベルのパフォーマンスで、音声、キャプション写真、言語間のテキスト翻訳を認識できるように訓練されている。
深層学習は皮質のアーキテクチャにインスパイアされ、計画と生存に不可欠な他の脳の領域で見られる可能性がある。
論文 参考訳(メタデータ) (2020-02-12T05:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。