論文の概要: A Memory-Augmented Neural Network Model of Abstract Rule Learning
- arxiv url: http://arxiv.org/abs/2012.07172v2
- Date: Tue, 15 Dec 2020 03:35:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-09 12:49:58.949306
- Title: A Memory-Augmented Neural Network Model of Abstract Rule Learning
- Title(参考訳): 抽象ルール学習のためのメモリ型ニューラルネットワークモデル
- Authors: Ishan Sinha, Taylor W. Webb, Jonathan D. Cohen
- Abstract要約: 任意のロールフィラーバインディングのためのニューラルネットワークの能力に焦点を当てる。
本稿では,外部メモリを結合機構として使用することを学習するリカレントニューラルネットワークモデルであるEmergent Symbol Binding Network (ESBN)を紹介する。
このメカニズムにより、ESBNのトレーニングプロセスを通じて、明示的なシンボル処理機械を必要とせずに、シンボルのような変数表現が出現する。
- 参考スコア(独自算出の注目度): 2.3562267625320352
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human intelligence is characterized by a remarkable ability to infer abstract
rules from experience and apply these rules to novel domains. As such,
designing neural network algorithms with this capacity is an important step
toward the development of deep learning systems with more human-like
intelligence. However, doing so is a major outstanding challenge, one that some
argue will require neural networks to use explicit symbol-processing
mechanisms. In this work, we focus on neural networks' capacity for arbitrary
role-filler binding, the ability to associate abstract "roles" to
context-specific "fillers," which many have argued is an important mechanism
underlying the ability to learn and apply rules abstractly. Using a simplified
version of Raven's Progressive Matrices, a hallmark test of human intelligence,
we introduce a sequential formulation of a visual problem-solving task that
requires this form of binding. Further, we introduce the Emergent Symbol
Binding Network (ESBN), a recurrent neural network model that learns to use an
external memory as a binding mechanism. This mechanism enables symbol-like
variable representations to emerge through the ESBN's training process without
the need for explicit symbol-processing machinery. We empirically demonstrate
that the ESBN successfully learns the underlying abstract rule structure of our
task and perfectly generalizes this rule structure to novel fillers.
- Abstract(参考訳): 人間の知性は、経験から抽象的なルールを推論し、これらのルールを新しいドメインに適用する素晴らしい能力によって特徴づけられる。
このように、この能力でニューラルネットワークアルゴリズムを設計することは、より人間的な知能を持つディープラーニングシステムの開発に向けた重要なステップである。
しかし、それは大きな課題であり、ニューラルネットワークが明示的なシンボル処理メカニズムを使用する必要があると主張する人もいる。
本研究では,任意のロールフィラー結合に対するニューラルネットワークの能力,抽象的"ロール"とコンテキスト固有の"フィラー"を関連付ける能力に注目する。
人間の知性の目覚しいテストであるRaven's Progressive Matricesの簡易版を用いて、このような結合を必要とする視覚的問題解決タスクのシーケンシャルな定式化を導入する。
さらに,外部メモリを結合機構として使用することを学習するリカレントニューラルネットワークモデルであるEmergent Symbol Binding Network (ESBN)を導入する。
このメカニズムは、明示的なシンボル処理機構を必要とせずに、ESBNのトレーニングプロセスを通じてシンボルのような変数表現を発生させることができる。
我々はESBNが我々のタスクの根底にある抽象ルール構造をうまく学習し、このルール構造を完全に新しいフィラーに一般化することを実証的に実証した。
関連論文リスト
- The Role of Foundation Models in Neuro-Symbolic Learning and Reasoning [54.56905063752427]
Neuro-Symbolic AI(NeSy)は、AIシステムの安全なデプロイを保証することを約束している。
ニューラルネットワークとシンボリックコンポーネントを順次トレーニングする既存のパイプラインは、広範なラベリングを必要とする。
新しいアーキテクチャであるNeSyGPTは、生データから象徴的特徴を抽出する視覚言語基盤モデルを微調整する。
論文 参考訳(メタデータ) (2024-02-02T20:33:14Z) - Emergence of Symbols in Neural Networks for Semantic Understanding and
Communication [8.156761369660096]
本稿では,シンボルの作成,意味論の理解,コミュニケーションの実現が可能なニューラルネットワークを実現するためのソリューションを提案する。
SEA-netは特定のタスクを実行するためにネットワークを動的に構成するシンボルを生成する。
これらのシンボルは合成意味情報をキャプチャし、システムは記号操作や通信によって純粋に新しい関数を取得できる。
論文 参考訳(メタデータ) (2023-04-13T10:13:00Z) - Knowledge-based Analogical Reasoning in Neuro-symbolic Latent Spaces [20.260546238369205]
ニューラルネットワークのパターン認識能力とシンボリック推論と背景知識を組み合わせたフレームワークを提案する。
ニューラルアルゴリズム推論」アプローチ [DeepMind 2020] からインスピレーションを得て、問題固有のバックグラウンド知識を使用します。
我々は、RAVENのプログレッシブ・マトリクスにおける視覚的類似性の問題でこれを検証し、人間のパフォーマンスと競合する精度を実現する。
論文 参考訳(メタデータ) (2022-09-19T04:03:20Z) - Neuro-Symbolic Learning of Answer Set Programs from Raw Data [54.56905063752427]
Neuro-Symbolic AIは、シンボリックテクニックの解釈可能性と、生データから学ぶ深層学習の能力を組み合わせることを目的としている。
本稿では,ニューラルネットワークを用いて生データから潜在概念を抽出するNSIL(Neuro-Symbolic Inductive Learner)を提案する。
NSILは表現力のある知識を学習し、計算的に複雑な問題を解き、精度とデータ効率の観点から最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-05-25T12:41:59Z) - Emergence of Machine Language: Towards Symbolic Intelligence with Neural
Networks [73.94290462239061]
本稿では、ニューラルネットワークを用いてシンボルとコネクショナリズムの原理を組み合わせることで、離散表現を導出することを提案する。
対話型環境とタスクを設計することにより、機械が自発的で柔軟でセマンティックな言語を生成できることを実証した。
論文 参考訳(メタデータ) (2022-01-14T14:54:58Z) - Learning Continuous Chaotic Attractors with a Reservoir Computer [0.0]
我々は1000ニューロンのRNNをトレーニングし、動的アトラクションメモリの分離例から連続的動的アトラクションメモリを抽象化する。
RCを安定な極限サイクルまたはカオス的なローレンツ引力の孤立およびシフトした例で訓練することにより、RCは、余剰のリャプノフ指数が 0 に等しいように、引力の連続性を学ぶ。
論文 参考訳(メタデータ) (2021-10-16T18:07:27Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Reinforcement Learning with External Knowledge by using Logical Neural
Networks [67.46162586940905]
論理ニューラルネットワーク(LNN)と呼ばれる最近のニューラルシンボリックフレームワークは、ニューラルネットワークとシンボリックロジックの両方のキープロパティを同時に提供することができる。
外部知識ソースからのモデルフリー強化学習を可能にする統合手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T12:34:59Z) - Emergent Symbols through Binding in External Memory [2.3562267625320352]
本稿では,外部メモリを付加したリカレントネットワークであるEmergent Symbol Binding Network (ESBN)を紹介する。
このバインディングメカニズムにより、シンボル処理機械を明示的に組み込むことなく、学習プロセスを通じてシンボルのような表現が現れます。
一連のタスクを通じて、このアーキテクチャは学習したルールのほぼ完全な一般化を新しい実体に示すことを示しています。
論文 参考訳(メタデータ) (2020-12-29T04:28:32Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - A neural network model of perception and reasoning [0.0]
生物学的に一貫した構成原理の単純なセットが神経ネットワークにこれらの能力を与えることを示す。
我々はこれらの原理を、最適化の代わりに概念構築に基づく新しい機械学習アルゴリズムで実装し、説明可能なニューロン活動で推論されるディープニューラルネットワークを設計する。
論文 参考訳(メタデータ) (2020-02-26T06:26:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。