論文の概要: Inference and Learning for Generative Capsule Models
- arxiv url: http://arxiv.org/abs/2209.03115v1
- Date: Wed, 7 Sep 2022 13:05:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-08 12:05:52.428889
- Title: Inference and Learning for Generative Capsule Models
- Title(参考訳): 生成カプセルモデルの推論と学習
- Authors: Alfredo Nazabal, Nikolaos Tsagkas, Christopher K. I. Williams
- Abstract要約: カプセルネットワークは、オブジェクトとその部分の関係に関する知識と推論を符号化することを目的としている。
このようなデータに対する生成モデルを定義し、各モデルオブジェクトの変換を推定するための変分アルゴリズムを導出する。
また、Fischler and Bolles (1981) のRANSAC法に基づく代替推論アルゴリズムについても検討した。
- 参考スコア(独自算出の注目度): 5.1081420619330515
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Capsule networks (see e.g. Hinton et al., 2018) aim to encode knowledge of
and reason about the relationship between an object and its parts. In this
paper we specify a generative model for such data, and derive a variational
algorithm for inferring the transformation of each model object in a scene, and
the assignments of observed parts to the objects. We derive a learning
algorithm for the object models, based on variational expectation maximization
(Jordan et al., 1999). We also study an alternative inference algorithm based
on the RANSAC method of Fischler and Bolles (1981). We apply these inference
methods to (i) data generated from multiple geometric objects like squares and
triangles ("constellations"), and (ii) data from a parts-based model of faces.
Recent work by Kosiorek et al. (2019) has used amortized inference via stacked
capsule autoencoders (SCAEs) to tackle this problem -- our results show that we
significantly outperform them where we can make comparisons (on the
constellations data).
- Abstract(参考訳): カプセルネットワーク(Hinton et al., 2018)は、オブジェクトとその部分の関係に関する知識と推論を符号化することを目的としている。
本稿では,このようなデータの生成モデルを定義し,シーン内の各モデルオブジェクトの変換と観察された部分のオブジェクトへの割り当てを推定するための変分アルゴリズムを導出する。
変動予測最大化に基づく対象モデルの学習アルゴリズムを導出する(Jordan et al., 1999)。
また,fischler and bolles (1981) のransac法に基づく代替推論アルゴリズムについても検討した。
これらの推論手法を
(i)正方形や三角形などの複数の幾何学的対象から生成されたデータ、及び
(ii)顔の部品モデルによるデータ。
kosiorekらによる最近の研究(2019年)では、この問題を解決するために、stacked capsule autoencoder(scaes)による償却推論が使用されています。
関連論文リスト
- Bayesian Beta-Bernoulli Process Sparse Coding with Deep Neural Networks [11.937283219047984]
深部離散潜在変数モデルに対して近似的推論法が提案されている。
このような深層モデルの離散潜在表現を学習するための非パラメトリック反復アルゴリズムを提案する。
提案手法は,異なる特徴を持つデータセット間で評価し,その結果を現在の補正近似推定法と比較する。
論文 参考訳(メタデータ) (2023-03-14T20:50:12Z) - ModelDiff: A Framework for Comparing Learning Algorithms [86.19580801269036]
そこでは,2つの異なる学習アルゴリズムを用いて学習したモデルの違いを見つけることを目的とする。
トレーニングデータの使用方法に基づいて学習アルゴリズムを比較するために,データモデルフレームワークを利用するModelDiffを提案する。
論文 参考訳(メタデータ) (2022-11-22T18:56:52Z) - An Empirical Investigation of Commonsense Self-Supervision with
Knowledge Graphs [67.23285413610243]
大規模知識グラフから抽出した情報に基づく自己監督は、言語モデルの一般化を改善することが示されている。
本研究では,言語モデルに適用可能な合成データを生成するための知識サンプリング戦略とサイズの影響について検討する。
論文 参考訳(メタデータ) (2022-05-21T19:49:04Z) - Prototypical Model with Novel Information-theoretic Loss Function for
Generalized Zero Shot Learning [3.870962269034544]
一般ゼロショット学習(GZSL)は、ディープラーニングの技術的課題である。
本稿では,知識伝達と意味的関係の定量化について,情報理論の観点から考察する。
決定論的GZSLモデルのための情報理論損失関数を3つ提案する。
論文 参考訳(メタデータ) (2021-12-06T16:01:46Z) - Inference for Generative Capsule Models [4.454557728745761]
capsule networkは、オブジェクトとその部分の関係に関する知識と推論をエンコードすることを目的としている。
データは任意の翻訳、回転、スケールで複数の幾何学的オブジェクトから生成される。
我々は、各オブジェクトの変換とオブジェクトの部分への点の割り当てを推測するための変分アルゴリズムを導出する。
論文 参考訳(メタデータ) (2021-03-11T14:10:29Z) - Generalized Matrix Factorization: efficient algorithms for fitting
generalized linear latent variable models to large data arrays [62.997667081978825]
一般化線形潜在変数モデル(GLLVM)は、そのような因子モデルを非ガウス応答に一般化する。
GLLVMのモデルパラメータを推定する現在のアルゴリズムは、集約的な計算を必要とし、大規模なデータセットにスケールしない。
本稿では,GLLVMを高次元データセットに適用するための新しい手法を提案する。
論文 参考訳(メタデータ) (2020-10-06T04:28:19Z) - DecAug: Augmenting HOI Detection via Decomposition [54.65572599920679]
現在のアルゴリズムでは、データセット内のトレーニングサンプルやカテゴリの不均衡が不足している。
本稿では,HOI検出のためのDECAugと呼ばれる効率的かつ効率的なデータ拡張手法を提案する。
実験の結果,V-COCOおよびHICODETデータセットの3.3mAPと1.6mAPの改善が得られた。
論文 参考訳(メタデータ) (2020-10-02T13:59:05Z) - Model Fusion with Kullback--Leibler Divergence [58.20269014662046]
異種データセットから学習した後続分布を融合する手法を提案する。
我々のアルゴリズムは、融合モデルと個々のデータセット後部の両方に対する平均場仮定に依存している。
論文 参考訳(メタデータ) (2020-07-13T03:27:45Z) - Evaluating the Disentanglement of Deep Generative Models through
Manifold Topology [66.06153115971732]
本稿では,生成モデルのみを用いた乱れの定量化手法を提案する。
複数のデータセットにまたがるいくつかの最先端モデルを実証的に評価する。
論文 参考訳(メタデータ) (2020-06-05T20:54:11Z) - Characterizing and Avoiding Problematic Global Optima of Variational
Autoencoders [28.36260646471421]
変分自動エンコーダ(VAEs)は、深部生成潜在変数モデルである。
最近の研究は、伝統的な訓練手法がデシダラタに反する解決策をもたらす傾向があることを示している。
どちらの問題も、VAEトレーニング目標のグローバルな最適度が望ましくない解決策とよく一致するという事実に起因していることを示す。
論文 参考訳(メタデータ) (2020-03-17T15:14:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。