論文の概要: Generative Neurosymbolic Machines
- arxiv url: http://arxiv.org/abs/2010.12152v2
- Date: Sat, 6 Feb 2021 19:48:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 23:37:40.348068
- Title: Generative Neurosymbolic Machines
- Title(参考訳): 生成神経シンボリックマシン
- Authors: Jindong Jiang and Sungjin Ahn
- Abstract要約: 記号的表現と分散表現の再構成は、現在のディープラーニングの限界を解決できる重要な課題である。
本稿では、分布表現とシンボル表現の利点を組み合わせた生成モデルである生成型ニューロシンボリックマシンを提案し、シンボル成分の構造化表現と密度ベース生成の両方をサポートする。
- 参考スコア(独自算出の注目度): 26.364503276512153
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reconciling symbolic and distributed representations is a crucial challenge
that can potentially resolve the limitations of current deep learning.
Remarkable advances in this direction have been achieved recently via
generative object-centric representation models. While learning a recognition
model that infers object-centric symbolic representations like bounding boxes
from raw images in an unsupervised way, no such model can provide another
important ability of a generative model, i.e., generating (sampling) according
to the structure of learned world density. In this paper, we propose Generative
Neurosymbolic Machines, a generative model that combines the benefits of
distributed and symbolic representations to support both structured
representations of symbolic components and density-based generation. These two
crucial properties are achieved by a two-layer latent hierarchy with the global
distributed latent for flexible density modeling and the structured symbolic
latent map. To increase the model flexibility in this hierarchical structure,
we also propose the StructDRAW prior. In experiments, we show that the proposed
model significantly outperforms the previous structured representation models
as well as the state-of-the-art non-structured generative models in terms of
both structure accuracy and image generation quality. Our code, datasets, and
trained models are available at https://github.com/JindongJiang/GNM
- Abstract(参考訳): 記号的表現と分散表現の再構成は、現在のディープラーニングの限界を解決できる重要な課題である。
この方向の顕著な進歩は、最近生成的オブジェクト中心表現モデルによって達成されている。
生画像からのバウンディングボックスのようなオブジェクト中心の象徴表現を教師なしの方法で推論する認識モデルを学ぶ一方で、そのようなモデルは生成モデルの重要な能力、すなわち学習された世界密度の構造に従って生成(サンプリング)することができない。
本稿では,シンボル成分の構造化表現と密度ベース生成の両方をサポートするために,分散表現とシンボル表現の利点を組み合わせた生成モデルである生成型ニューロシンボリックマシンを提案する。
これらの2つの重要な性質は、フレキシブル密度モデリングのためのグローバル分散潜在写像と構造化シンボル潜在写像を持つ2層潜在階層によって達成される。
この階層構造におけるモデルの柔軟性を高めるために, structdraw priorを提案する。
実験では,提案モデルが,構造精度と画像生成品質の両方の観点から,従来の構造表現モデルと最先端の非構造生成モデルとを著しく上回ることを示す。
私たちのコード、データセット、トレーニングされたモデルはhttps://github.com/JindongJiang/GNMで利用可能です。
関連論文リスト
- Hierarchical Clustering for Conditional Diffusion in Image Generation [12.618079575423868]
本稿では,階層クラスタ上で拡散モデルを用いて,高品質なクラスタ固有世代を得る,深層生成モデルであるTreeDiffusionを紹介する。
提案するパイプラインは,データの階層構造を学習するVAEベースのクラスタリングモデルと,クラスタ毎に現実的な画像を生成する条件拡散モデルである。
論文 参考訳(メタデータ) (2024-10-22T11:35:36Z) - ProtoS-ViT: Visual foundation models for sparse self-explainable classifications [0.6249768559720122]
この研究は、凍結したトレーニング済みのViTバックボーンが、いかに効果的に原型モデルに変換できるかを示す。
ProtoS-ViTは、精度、コンパクト性、説明可能性の点で優れた性能を示す既存のプロトタイプモデルを上回る。
論文 参考訳(メタデータ) (2024-06-14T13:36:30Z) - A Recursive Bateson-Inspired Model for the Generation of Semantic Formal
Concepts from Spatial Sensory Data [77.34726150561087]
本稿では,複雑な感覚データから階層構造を生成するための記号のみの手法を提案する。
このアプローチは、概念や概念の創始の鍵としてのバテソンの差異の概念に基づいている。
このモデルは、トレーニングなしでかなりリッチだが人間に読まれる概念表現を生成することができる。
論文 参考訳(メタデータ) (2023-07-16T15:59:13Z) - SlotDiffusion: Object-Centric Generative Modeling with Diffusion Models [47.986381326169166]
SlotDiffusion - 画像データとビデオデータの両方に設計されたオブジェクト中心の潜在拡散モデル(LDM)を紹介する。
LDMの強力なモデリング能力のおかげで、SlotDiffusionは教師なしオブジェクトセグメンテーションと視覚生成において、以前のスロットモデルを上回っている。
学習対象の特徴は、既存のオブジェクト中心のダイナミックスモデルによって利用することができ、ビデオ予測品質と下流時間推論タスクを改善することができる。
論文 参考訳(メタデータ) (2023-05-18T19:56:20Z) - Object-Centric Relational Representations for Image Generation [18.069747511100132]
本稿では,オブジェクト中心のリレーショナル表現に基づく条件画像生成手法を提案する。
このようなアーキテクチャバイアスには,生成過程の操作と条件付けを容易にする特性が伴うことを示す。
また,関係表現と組み合わせた画像の合成データセットからなる画像生成のための新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2023-03-26T11:17:17Z) - GrannGAN: Graph annotation generative adversarial networks [72.66289932625742]
本稿では,高次元分布をモデル化し,グラフスケルトンと整合した複雑な関係特徴構造を持つデータの新しい例を生成することの問題点を考察する。
提案するモデルは,タスクを2つのフェーズに分割することで,各データポイントのグラフ構造に制約されたデータ特徴を生成する問題に対処する。
第一に、与えられたグラフのノードに関連する機能の分布をモデル化し、第二に、ノードのフィーチャに条件付きでエッジ機能を補完する。
論文 参考訳(メタデータ) (2022-12-01T11:49:07Z) - S2RMs: Spatially Structured Recurrent Modules [105.0377129434636]
モジュール構造とテンポラル構造の両方を同時に活用できる動的構造を利用するための一歩を踏み出します。
我々のモデルは利用可能なビューの数に対して堅牢であり、追加のトレーニングなしで新しいタスクに一般化できる。
論文 参考訳(メタデータ) (2020-07-13T17:44:30Z) - Deep Autoencoding Topic Model with Scalable Hybrid Bayesian Inference [55.35176938713946]
我々は、ガンマ分布の階層構造を用いて、その多確率層生成ネットワークを構築するディープ・オートエンコーディング・トピック・モデル(DATM)を開発した。
Weibull上向き変分エンコーダを提案する。このエンコーダは深層ニューラルネットワークを介して情報を上向きに伝播し,次いで下向き生成モデルを提案する。
大規模コーパス上での教師なしおよび教師なしの学習タスクにおいて,モデルの有効性とスケーラビリティを実証した。
論文 参考訳(メタデータ) (2020-06-15T22:22:56Z) - Network Bending: Expressive Manipulation of Deep Generative Models [0.2062593640149624]
ネットワーク曲げと呼ばれる深層生成モデルを操作するための新しいフレームワークを提案する。
生成過程において意味論的に意味のある側面を直接操作できるだけでなく、幅広い表現的な結果を得ることができるかを示す。
論文 参考訳(メタデータ) (2020-05-25T21:48:45Z) - High-Fidelity Synthesis with Disentangled Representation [60.19657080953252]
本稿では,不整合学習と高忠実度合成のためのID-GAN(Information-Distillation Generative Adrial Network)を提案する。
提案手法は, VAEモデルを用いて非交叉表現を学習し, 高忠実度合成のためのGAN生成器に追加のニュアンス変数で学習表現を蒸留する。
単純さにもかかわらず,提案手法は高効率であり,不整合表現を用いた最先端の手法に匹敵する画像生成品質を実現する。
論文 参考訳(メタデータ) (2020-01-13T14:39:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。