論文の概要: Generating new concepts with hybrid neuro-symbolic models
- arxiv url: http://arxiv.org/abs/2003.08978v3
- Date: Tue, 9 Jun 2020 01:31:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 03:30:27.322500
- Title: Generating new concepts with hybrid neuro-symbolic models
- Title(参考訳): ハイブリッドニューロシンボリックモデルによる新しい概念の生成
- Authors: Reuben Feinman, Brenden M. Lake
- Abstract要約: 人間の概念的知識は、新しいが高度に構造化された概念を生成する能力を支持する。
ある伝統は構造化された知識を強調し、概念は直感的な理論に埋め込まれるか、複雑な記号的な知識構造に組織化されている。
第二の伝統は統計的知識を強調し、概念的知識はニューラルネットワークやその他の統計モデルの訓練によって得られたリッチな相関構造から生まれたものと見なしている。
- 参考スコア(独自算出の注目度): 22.336243882030026
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human conceptual knowledge supports the ability to generate novel yet highly
structured concepts, and the form of this conceptual knowledge is of great
interest to cognitive scientists. One tradition has emphasized structured
knowledge, viewing concepts as embedded in intuitive theories or organized in
complex symbolic knowledge structures. A second tradition has emphasized
statistical knowledge, viewing conceptual knowledge as an emerging from the
rich correlational structure captured by training neural networks and other
statistical models. In this paper, we explore a synthesis of these two
traditions through a novel neuro-symbolic model for generating new concepts.
Using simple visual concepts as a testbed, we bring together neural networks
and symbolic probabilistic programs to learn a generative model of novel
handwritten characters. Two alternative models are explored with more generic
neural network architectures. We compare each of these three models for their
likelihoods on held-out character classes and for the quality of their
productions, finding that our hybrid model learns the most convincing
representation and generalizes further from the training observations.
- Abstract(参考訳): 人間の概念知識は、新しいが高度に構造化された概念を生成する能力をサポートし、この概念知識の形式は認知科学者にとって大きな関心を持つ。
ある伝統は構造化された知識を強調し、概念は直感的な理論に埋め込まれるか、複雑な記号的な知識構造に組織化されている。
第二の伝統は統計的知識を強調し、概念的知識はニューラルネットワークやその他の統計モデルの訓練によって得られたリッチな相関構造から生まれたものと見なしている。
本稿では,新しい概念を創出するためのニューロシンボリックモデルを用いて,これら2つの伝統の合成について検討する。
単純な視覚概念をテストベッドとして使用し,ニューラルネットワークとシンボリック確率プログラムを組み合わせて,新しい手書き文字の生成モデルを学ぶ。
2つの代替モデルがより汎用的なニューラルネットワークアーキテクチャで検討されている。
これら3つのモデルのそれぞれを、保持されたキャラクタクラスとプロダクションの品質に関する可能性と比較し、我々のハイブリッドモデルが最も説得力のある表現を学習し、トレーニング観察からさらに一般化できることを見出した。
関連論文リスト
- Aligning Knowledge Graphs Provided by Humans and Generated from Neural Networks in Specific Tasks [5.791414814676125]
本稿では,ニューラルネットワークによる知識グラフの生成と活用を可能にする革新的な手法を提案する。
われわれのアプローチは、従来の単語の埋め込みモデルへの依存を排除し、ニューラルネットワークから概念をマイニングし、それらを人間の知識と直接整合させる。
実験により,本手法は人間の知識と密接に一致したネットワーク生成概念を連続的に捕捉し,これまでヒトが認識していなかった新しい有用な概念を発見できることがわかった。
論文 参考訳(メタデータ) (2024-04-23T20:33:17Z) - A Neuro-mimetic Realization of the Common Model of Cognition via Hebbian
Learning and Free Energy Minimization [55.11642177631929]
大規模なニューラル生成モデルは、意味的に豊富なテキストのパスを合成したり、複雑な画像を生成することができる。
我々はコモン・モデル・オブ・コグニティブ・ニューラル・ジェネレーティブ・システムについて論じる。
論文 参考訳(メタデータ) (2023-10-14T23:28:48Z) - A Recursive Bateson-Inspired Model for the Generation of Semantic Formal
Concepts from Spatial Sensory Data [77.34726150561087]
本稿では,複雑な感覚データから階層構造を生成するための記号のみの手法を提案する。
このアプローチは、概念や概念の創始の鍵としてのバテソンの差異の概念に基づいている。
このモデルは、トレーニングなしでかなりリッチだが人間に読まれる概念表現を生成することができる。
論文 参考訳(メタデータ) (2023-07-16T15:59:13Z) - Formal Conceptual Views in Neural Networks [0.0]
本稿では,ニューラルネットワークの概念的視点,特に多値・記号的視点の2つの概念を紹介する。
我々は、ImageNetとFruit-360データセットの異なる実験を通して、新しいビューの概念的表現性をテストする。
本研究では,ニューロンからの人間の理解可能なルールの帰納的学習に概念的視点が適用可能であることを実証する。
論文 参考訳(メタデータ) (2022-09-27T16:38:24Z) - ZeroC: A Neuro-Symbolic Model for Zero-shot Concept Recognition and
Acquisition at Inference Time [49.067846763204564]
人間は、ゼロショットで新しい視覚概念を認識し、獲得する驚くべき能力を持っている。
ゼロショット概念認識・獲得(ZeroC)は,ゼロショット方式で新規概念を認識・取得できる,ニューロシンボリックアーキテクチャである。
論文 参考訳(メタデータ) (2022-06-30T06:24:45Z) - Discovering Latent Concepts Learned in BERT [21.760620298330235]
事前学習されたBERTモデルに潜伏概念が存在するかを検討する。
また、174のコンセプトラベルと1Mのアノテーション付きインスタンスからなる新しいBERT ConceptNetデータセット(BCN)もリリースした。
論文 参考訳(メタデータ) (2022-05-15T09:45:34Z) - Towards a Predictive Processing Implementation of the Common Model of
Cognition [79.63867412771461]
本稿では,ニューラル生成符号化とホログラフィック連想記憶に基づく認知モデルの実装について述べる。
提案システムは,多様なタスクから継続的に学習し,大規模に人的パフォーマンスをモデル化するエージェントを開発するための基盤となる。
論文 参考訳(メタデータ) (2021-05-15T22:55:23Z) - Learning Task-General Representations with Generative Neuro-Symbolic
Modeling [22.336243882030026]
我々は手書き文字概念の生成型ニューロシンボリック(GNS)モデルを開発する。
部品間の相関はニューラルネットワークのサブルーチンでモデル化され、モデルが生のデータから直接学習することができる。
その後の評価では、GNSモデルは確率的推論を用いて1つのトレーニング画像からリッチな概念表現を学習する。
論文 参考訳(メタデータ) (2020-06-25T14:41:27Z) - Compositional Generalization by Learning Analytical Expressions [87.15737632096378]
メモリ拡張ニューラルモデルは、合成一般化を達成するために解析式に接続される。
良く知られたベンチマークSCANの実験は、我々のモデルが構成的一般化の優れた能力をつかむことを示した。
論文 参考訳(メタデータ) (2020-06-18T15:50:57Z) - Revisit Systematic Generalization via Meaningful Learning [15.90288956294373]
最近の研究は、ニューラルネットワークはそのような認知能力に本質的に効果がないように見えると主張している。
新しい概念と古い概念のセマンティックリンクを条件としたシーケンス・ツー・シーケンス・モデルの合成スキルを再評価する。
論文 参考訳(メタデータ) (2020-03-14T15:27:29Z) - Neuro-symbolic Architectures for Context Understanding [59.899606495602406]
本稿では,データ駆動型アプローチと知識駆動型アプローチの強みを組み合わせたフレームワークとして,ハイブリッドAI手法を提案する。
具体的には、知識ベースを用いて深層ニューラルネットワークの学習過程を導く方法として、ニューロシンボリズムの概念を継承する。
論文 参考訳(メタデータ) (2020-03-09T15:04:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。