論文の概要: Active Predictive Coding Networks: A Neural Solution to the Problem of
Learning Reference Frames and Part-Whole Hierarchies
- arxiv url: http://arxiv.org/abs/2201.08813v1
- Date: Fri, 14 Jan 2022 21:22:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-30 11:36:37.177285
- Title: Active Predictive Coding Networks: A Neural Solution to the Problem of
Learning Reference Frames and Part-Whole Hierarchies
- Title(参考訳): アクティブ予測符号化ネットワーク:参照フレームと部分ホール階層の学習問題のニューラルネットワーク
- Authors: Dimitrios C. Gklezakos, Rajesh P. N. Rao
- Abstract要約: APCN(Active Predictive Coding Networks)を紹介する。
APCNは、人工知能と脳モデリングの分野において、Hintonらによって引き起こされた主要な問題を解決するニューラルネットワークの新しいクラスである。
APCNは(a)画像を部分全体階層に解析し、(b)構成表現を学習し、(c)未知のオブジェクトのクラスにその知識を移すことを実証する。
- 参考スコア(独自算出の注目度): 1.5990720051907859
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We introduce Active Predictive Coding Networks (APCNs), a new class of neural
networks that solve a major problem posed by Hinton and others in the fields of
artificial intelligence and brain modeling: how can neural networks learn
intrinsic reference frames for objects and parse visual scenes into part-whole
hierarchies by dynamically allocating nodes in a parse tree? APCNs address this
problem by using a novel combination of ideas: (1) hypernetworks are used for
dynamically generating recurrent neural networks that predict parts and their
locations within intrinsic reference frames conditioned on higher object-level
embedding vectors, and (2) reinforcement learning is used in conjunction with
backpropagation for end-to-end learning of model parameters. The APCN
architecture lends itself naturally to multi-level hierarchical learning and is
closely related to predictive coding models of cortical function. Using the
MNIST, Fashion-MNIST and Omniglot datasets, we demonstrate that APCNs can (a)
learn to parse images into part-whole hierarchies, (b) learn compositional
representations, and (c) transfer their knowledge to unseen classes of objects.
With their ability to dynamically generate parse trees with part locations for
objects, APCNs offer a new framework for explainable AI that leverages advances
in deep learning while retaining interpretability and compositionality.
- Abstract(参考訳): ニューラルネットワークはどのようにしてオブジェクトの固有参照フレームを学習し、視覚的なシーンをパースツリー内のノードを動的に割り当てることで、全階層にパースできるのか?
1)ハイパーネットワークは、高次オブジェクト指向埋め込みベクトルを条件とした内在参照フレーム内の部分とその位置を予測するリカレントニューラルネットワークを動的に生成するために使用され、(2)モデルパラメータのエンドツーエンド学習のためのバックプロパゲーションと組み合わせて強化学習が使用される。
APCNアーキテクチャは自然に多階層的学習に結びつき、皮質関数の予測符号化モデルと密接に関連している。
MNIST、Fashion-MNIST、Omniglotのデータセットを用いて、APCNsが可能であることを示す。
(a)部分階層に画像を解析することを学ぶ。
(b)構成表現を学び、
(c) 知識を見えないオブジェクトのクラスに転送する。
オブジェクトの部分的な位置を持つ解析木を動的に生成する能力によって、APCNは、解釈可能性と構成性を維持しながらディープラーニングの進歩を活用する、説明可能なAIのための新しいフレームワークを提供する。
関連論文リスト
- Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Unsupervised representation learning with Hebbian synaptic and structural plasticity in brain-like feedforward neural networks [0.0]
教師なし表現学習が可能な脳様ニューラルネットワークモデルを導入,評価する。
このモデルは、一般的な機械学習ベンチマークのさまざまなセットでテストされた。
論文 参考訳(メタデータ) (2024-06-07T08:32:30Z) - Learning Object-Centric Representation via Reverse Hierarchy Guidance [73.05170419085796]
OCL(Object-Centric Learning)は、ニューラルネットワークが視覚的なシーンで個々のオブジェクトを識別できるようにする。
RHGNetは、トレーニングと推論プロセスにおいて、さまざまな方法で機能するトップダウンパスを導入している。
我々のモデルは、よく使われる複数のデータセット上でSOTA性能を達成する。
論文 参考訳(メタデータ) (2024-05-17T07:48:27Z) - Language Knowledge-Assisted Representation Learning for Skeleton-Based
Action Recognition [71.35205097460124]
人間が他人の行動を理解して認識する方法は、複雑な神経科学の問題である。
LA-GCNは、大規模言語モデル(LLM)知識アシストを用いたグラフ畳み込みネットワークを提案する。
論文 参考訳(メタデータ) (2023-05-21T08:29:16Z) - Recursive Neural Programs: Variational Learning of Image Grammars and
Part-Whole Hierarchies [1.5990720051907859]
本稿では,部分階層学習問題に対処するため,再帰的ニューラルプログラム(RNP)を導入する。
RNPは、部分階層学習問題に対処する最初の神経生成モデルである。
以上の結果から,RNPはオブジェクトやシーンを直感的で説明可能な構成方法であることがわかった。
論文 参考訳(メタデータ) (2022-06-16T22:02:06Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Evolutionary Architecture Search for Graph Neural Networks [23.691915813153496]
本稿では,大規模グラフニューラルネットワーク(GNN)アーキテクチャ空間における個々のモデルの進化を通じて,新しいAutoMLフレームワークを提案する。
我々の知る限りでは、GNNモデルの進化的アーキテクチャ探索を導入し、評価する最初の試みである。
論文 参考訳(メタデータ) (2020-09-21T22:11:53Z) - Neural Networks Enhancement with Logical Knowledge [83.9217787335878]
関係データに対するKENNの拡張を提案する。
その結果、KENNは、存在関係データにおいても、基礎となるニューラルネットワークの性能を高めることができることがわかった。
論文 参考訳(メタデータ) (2020-09-13T21:12:20Z) - Understanding the Role of Individual Units in a Deep Neural Network [85.23117441162772]
本稿では,画像分類と画像生成ネットワーク内の隠れ単位を系統的に同定する分析フレームワークを提案する。
まず、シーン分類に基づいて訓練された畳み込みニューラルネットワーク(CNN)を分析し、多様なオブジェクト概念にマッチするユニットを発見する。
第2に、シーンを生成するために訓練されたGANモデルについて、同様の分析手法を用いて分析する。
論文 参考訳(メタデータ) (2020-09-10T17:59:10Z) - Locality Guided Neural Networks for Explainable Artificial Intelligence [12.435539489388708]
LGNN(Locality Guided Neural Network)と呼ばれる,バック伝搬のための新しいアルゴリズムを提案する。
LGNNはディープネットワークの各層内の隣接ニューロン間の局所性を保っている。
実験では,CIFAR100 上の画像分類のための様々な VGG と Wide ResNet (WRN) ネットワークを訓練した。
論文 参考訳(メタデータ) (2020-07-12T23:45:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。