論文の概要: Learning a Deep Generative Model like a Program: the Free Category Prior
- arxiv url: http://arxiv.org/abs/2011.11063v1
- Date: Sun, 22 Nov 2020 17:16:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 09:09:52.772374
- Title: Learning a Deep Generative Model like a Program: the Free Category Prior
- Title(参考訳): プログラムのような深層生成モデルを学ぶ: フリーカテゴリを優先する
- Authors: Eli Sennesh
- Abstract要約: 私たちのフォーマリズムは、ニューラルネットワークが確率プログラムのプリミティブとして機能することをどのように可能にしているかを示します。
私たちのフォーマリズムは、ニューラルネットワークが確率プログラムのプリミティブとして機能することをどのように可能にしているかを示します。
- 参考スコア(独自算出の注目度): 2.088583843514496
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humans surpass the cognitive abilities of most other animals in our ability
to "chunk" concepts into words, and then combine the words to combine the
concepts. In this process, we make "infinite use of finite means", enabling us
to learn new concepts quickly and nest concepts within each-other. While
program induction and synthesis remain at the heart of foundational theories of
artificial intelligence, only recently has the community moved forward in
attempting to use program learning as a benchmark task itself. The cognitive
science community has thus often assumed that if the brain has simulation and
reasoning capabilities equivalent to a universal computer, then it must employ
a serialized, symbolic representation. Here we confront that assumption, and
provide a counterexample in which compositionality is expressed via network
structure: the free category prior over programs. We show how our formalism
allows neural networks to serve as primitives in probabilistic programs. We
learn both program structure and model parameters end-to-end.
- Abstract(参考訳): 人間は他のほとんどの動物の認知能力を超え、概念を言葉に「チャンク」し、その言葉を組み合わせて概念を結合する能力を持つ。
このプロセスでは、「有限手段の無限利用」を行い、新しい概念を素早く学習し、互いに概念をネストすることができる。
プログラムの誘導と合成は、人工知能の基礎理論の中心に留まっているが、最近になって、プログラム学習をベンチマークタスク自体として利用しようとするコミュニティが前進した。
したがって、認知科学のコミュニティは、脳が普遍的なコンピュータと同等のシミュレーションと推論能力を持っているなら、シリアライズされた象徴的な表現を使わなければならないとしばしば考えてきた。
ここでは、この仮定に直面し、構成性がネットワーク構造を通して表現される対例、すなわち、プログラムよりも前の自由圏を提供する。
我々は、ニューラルネットワークが確率的プログラムのプリミティブとしてどのように機能するかを示す。
プログラム構造とモデルパラメータの両方をエンドツーエンドで学習する。
関連論文リスト
- OC-NMN: Object-centric Compositional Neural Module Network for
Generative Visual Analogical Reasoning [49.12350554270196]
モジュラリティがいかにして、想像にインスパイアされた構成データ拡張フレームワークを導出できるかを示す。
本手法は, オブジェクト中心合成ニューラルネットワーク (OC-NMN) を用いて, 視覚生成推論タスクを, ドメイン固有言語を使わずに, オブジェクトに適用した一連のプリミティブに分解する。
論文 参考訳(メタデータ) (2023-10-28T20:12:58Z) - A Recursive Bateson-Inspired Model for the Generation of Semantic Formal
Concepts from Spatial Sensory Data [77.34726150561087]
本稿では,複雑な感覚データから階層構造を生成するための記号のみの手法を提案する。
このアプローチは、概念や概念の創始の鍵としてのバテソンの差異の概念に基づいている。
このモデルは、トレーニングなしでかなりリッチだが人間に読まれる概念表現を生成することができる。
論文 参考訳(メタデータ) (2023-07-16T15:59:13Z) - From Word Models to World Models: Translating from Natural Language to
the Probabilistic Language of Thought [124.40905824051079]
言語インフォームド・シンキングのための計算フレームワークである「構成」を合理的に提案する。
我々は、自然言語から確率論的思考言語への文脈感応的なマッピングとして、言語の意味を定式化する。
LLMは、現実的に適切な言語的意味をキャプチャする文脈依存翻訳を生成することができることを示す。
認知的なモチベーションを持つシンボリックモジュールを統合するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2023-06-22T05:14:00Z) - A Neural Lambda Calculus: Neurosymbolic AI meets the foundations of
computing and functional programming [0.0]
我々は、プログラム全体の実行方法を学ぶニューラルネットワークの能力を分析する。
統合型ニューラルラーニングと電卓形式化の導入について紹介する。
論文 参考訳(メタデータ) (2023-04-18T20:30:16Z) - An Enactivist-Inspired Mathematical Model of Cognition [5.8010446129208155]
我々は、関連する文献で慎重に確認した5つの基本的なエノクティビズム認知科学のテレットを定式化する。
次に、これらの実践主義的信条に従う認知システムについて話すための数学的枠組みを開発する。
論文 参考訳(メタデータ) (2022-06-10T13:03:47Z) - Emergence of Machine Language: Towards Symbolic Intelligence with Neural
Networks [73.94290462239061]
本稿では、ニューラルネットワークを用いてシンボルとコネクショナリズムの原理を組み合わせることで、離散表現を導出することを提案する。
対話型環境とタスクを設計することにより、機械が自発的で柔軟でセマンティックな言語を生成できることを実証した。
論文 参考訳(メタデータ) (2022-01-14T14:54:58Z) - A Mathematical Approach to Constraining Neural Abstraction and the
Mechanisms Needed to Scale to Higher-Order Cognition [0.0]
人工知能はこの10年で大きな進歩を遂げてきたが、人工知能の最もよく知られている例である人間の脳にはまだ及ばない。
神経の過程があまり知られていないため、脳はほんの少しで跳躍を達成できる。
本稿では, グラフ理論とスペクトルグラフ理論を用いた数学的アプローチを提案する。
論文 参考訳(メタデータ) (2021-08-12T02:13:22Z) - Compositional Processing Emerges in Neural Networks Solving Math
Problems [100.80518350845668]
人工知能の最近の進歩は、大きなモデルが十分な言語データに基づいて訓練されると、文法構造が表現に現れることを示している。
我々は、この研究を数学的推論の領域にまで拡張し、どのように意味を構成するべきかについての正確な仮説を定式化することができる。
私たちの研究は、ニューラルネットワークがトレーニングデータに暗黙的に構造化された関係について何かを推測できるだけでなく、個々の意味の合成を合成全体へと導くために、この知識を展開できることを示している。
論文 参考訳(メタデータ) (2021-05-19T07:24:42Z) - Inductive Biases for Deep Learning of Higher-Level Cognition [108.89281493851358]
興味深い仮説は、人間と動物の知性はいくつかの原則によって説明できるということである。
この研究は、主に高いレベルとシーケンシャルな意識的処理に関心のある人を中心に、より大きなリストを考察する。
これらの特定の原則を明確にする目的は、人間の能力から恩恵を受けるAIシステムを構築するのに役立つ可能性があることである。
論文 参考訳(メタデータ) (2020-11-30T18:29:25Z) - Learning Hierarchically Structured Concepts [3.9795499448909024]
生物学的に妥当なニューラルネットワークが階層的に構造化された概念をどのように認識できるかを示す。
学習においては,オジャの規則を正式に分析し,シナプスの重みを調節する生物学的に有望な規則を定式化した。
学習結果を低境界で補完し、ある階層的な深さの概念を認識するためには、ニューラルネットワークは対応する複数の層を持つ必要がある、と主張する。
論文 参考訳(メタデータ) (2019-09-10T15:11:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。