論文の概要: From Manifestations to Cognitive Architectures: a Scalable Framework
- arxiv url: http://arxiv.org/abs/2406.09823v2
- Date: Mon, 30 Sep 2024 09:05:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-01 22:00:08.803356
- Title: From Manifestations to Cognitive Architectures: a Scalable Framework
- Title(参考訳): 設計から認知アーキテクチャへ:スケーラブルなフレームワーク
- Authors: Alfredo Ibias, Guillem Ramirez-Miranda, Enric Guinovart, Eduard Alarcon,
- Abstract要約: 本稿では,現実を情報源として解釈する新しい手法を提案する。
このフレームワークは、Long Term MemoryやWorking Memoryといった、古典的な認知アーキテクチャの要素を構築することができる。
- 参考スコア(独自算出の注目度): 2.6563873893593826
- License:
- Abstract: The Artificial Intelligence field is flooded with optimisation methods. In this paper, we change the focus to developing modelling methods with the aim of getting us closer to Artificial General Intelligence. To do so, we propose a novel way to interpret reality as an information source, that is later translated into a computational framework able to capture and represent such information. This framework is able to build elements of classical cognitive architectures, like Long Term Memory and Working Memory, starting from a simple primitive that only processes Spatial Distributed Representations. Moreover, it achieves such level of verticality in a seamless scalable hierarchical way.
- Abstract(参考訳): 人工知能分野は最適化手法で溢れている。
本稿では,人工知能に近づくことを目的としたモデリング手法の開発に焦点を移す。
そこで本稿では,現実を情報源として解釈する新たな手法を提案する。
このフレームワークは、空間分散表現のみを処理する単純なプリミティブから始まるLong Term MemoryやWorking Memoryのような、古典的な認知アーキテクチャの要素を構築することができる。
さらに、シームレスでスケーラブルな階層的な方法で、このような垂直性を実現する。
関連論文リスト
- Knowledge-Aware Parsimony Learning: A Perspective from Relational Graphs [47.6830995661091]
スケーリング法則は、トレーニングデータセットと学習可能なパラメータのブルートフォーススケーリングを含む戦略である。
本稿では,知識を意識したパーシモニー学習を通じて関係グラフから学習する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-29T15:52:37Z) - A Recursive Bateson-Inspired Model for the Generation of Semantic Formal
Concepts from Spatial Sensory Data [77.34726150561087]
本稿では,複雑な感覚データから階層構造を生成するための記号のみの手法を提案する。
このアプローチは、概念や概念の創始の鍵としてのバテソンの差異の概念に基づいている。
このモデルは、トレーニングなしでかなりリッチだが人間に読まれる概念表現を生成することができる。
論文 参考訳(メタデータ) (2023-07-16T15:59:13Z) - Analogical Concept Memory for Architectures Implementing the Common
Model of Cognition [1.9417302920173825]
そこで我々は,Soar の新たなアナログ概念メモリを提案し,宣言的長期記憶の現在のシステムを強化した。
提案したメモリに実装されたアナログ学習手法は,多様な新しい概念を迅速に学習できることを実証する。
論文 参考訳(メタデータ) (2022-10-21T04:39:07Z) - WenLan 2.0: Make AI Imagine via a Multimodal Foundation Model [74.4875156387271]
我々は,膨大なマルチモーダル(視覚的・テキスト的)データを事前学習した新しい基礎モデルを開発する。
そこで本研究では,様々な下流タスクにおいて,最先端の成果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-27T12:25:21Z) - Towards a Predictive Processing Implementation of the Common Model of
Cognition [79.63867412771461]
本稿では,ニューラル生成符号化とホログラフィック連想記憶に基づく認知モデルの実装について述べる。
提案システムは,多様なタスクから継続的に学習し,大規模に人的パフォーマンスをモデル化するエージェントを開発するための基盤となる。
論文 参考訳(メタデータ) (2021-05-15T22:55:23Z) - MetaSDF: Meta-learning Signed Distance Functions [85.81290552559817]
ニューラルな暗示表現で形状を一般化することは、各関数空間上の学習先行値に比例する。
形状空間の学習をメタラーニング問題として定式化し、勾配に基づくメタラーニングアルゴリズムを利用してこの課題を解決する。
論文 参考訳(メタデータ) (2020-06-17T05:14:53Z) - Characterizing an Analogical Concept Memory for Architectures
Implementing the Common Model of Cognition [1.468003557277553]
そこで我々は,Soar の新たなアナログ概念メモリを提案し,宣言的長期記憶の現在のシステムを強化した。
提案したメモリに実装されたアナログ学習手法は,多様な新しい概念を迅速に学習できることを実証する。
論文 参考訳(メタデータ) (2020-06-02T21:54:03Z) - Neural Entity Linking: A Survey of Models Based on Deep Learning [82.43751915717225]
本調査では,2015年以降に開発されたニューラルエンティティリンク(EL)システムの包括的記述について報告する。
その目標は、ニューラルエンティティリンクシステムの設計機能を体系化し、それらのパフォーマンスを一般的なベンチマーク上の注目すべき古典的手法と比較することである。
この調査はエンティティリンクの応用に焦点をあて、最近出現した、深い事前訓練されたマスキング言語モデルを強化するユースケースに焦点を当てている。
論文 参考訳(メタデータ) (2020-05-31T18:02:26Z) - New Ideas for Brain Modelling 6 [0.0]
本稿では,3段階認知モデルの実装の詳細について述べる。
アーキテクチャ全体がモジュール化され、さまざまなタイプの情報を使用してさまざまなレベルが設定されている。
トップレベルの認知層は、以前の論文の認知プロセス言語(CPL)をモデル化するために再設計された。
論文 参考訳(メタデータ) (2020-05-11T14:28:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。