論文の概要: Image Modeling with Deep Convolutional Gaussian Mixture Models
- arxiv url: http://arxiv.org/abs/2104.12686v1
- Date: Mon, 19 Apr 2021 12:08:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-03 19:48:34.932917
- Title: Image Modeling with Deep Convolutional Gaussian Mixture Models
- Title(参考訳): 深い畳み込みガウス混合モデルによる画像モデリング
- Authors: Alexander Gepperth, Benedikt Pf\"ulb
- Abstract要約: 画像の記述と生成に適したGMM(Deep Hierarchical Gaussian Mixture Models)の新しい定式化を紹介します。
DCGMMは、畳み込みとプーリング操作によってリンクされた複数のGMM層の積み重ねたアーキテクチャによってこれを回避している。
dcgmmsでシャープな画像を生成するために,畳み込みやプーリングなどの非可逆操作をサンプリングする新しい勾配に基づく手法を提案する。
MNISTとFashionMNISTのデータセットに基づいて,クラスタリング,サンプリング,外乱検出において,フラットなGMMよりも優れていることを示すことで,DCGMMsモデルを検証した。
- 参考スコア(独自算出の注目度): 79.0660895390689
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this conceptual work, we present Deep Convolutional Gaussian Mixture
Models (DCGMMs): a new formulation of deep hierarchical Gaussian Mixture Models
(GMMs) that is particularly suitable for describing and generating images.
Vanilla (i.e., flat) GMMs require a very large number of components to describe
images well, leading to long training times and memory issues. DCGMMs avoid
this by a stacked architecture of multiple GMM layers, linked by convolution
and pooling operations. This allows to exploit the compositionality of images
in a similar way as deep CNNs do. DCGMMs can be trained end-to-end by
Stochastic Gradient Descent. This sets them apart from vanilla GMMs which are
trained by Expectation-Maximization, requiring a prior k-means initialization
which is infeasible in a layered structure. For generating sharp images with
DCGMMs, we introduce a new gradient-based technique for sampling through
non-invertible operations like convolution and pooling. Based on the MNIST and
FashionMNIST datasets, we validate the DCGMMs model by demonstrating its
superiority over flat GMMs for clustering, sampling and outlier detection.
- Abstract(参考訳): 本稿では,特に画像の記述・生成に適した深層階層型ガウス混合モデル(GMM)の新たな定式化として,深部畳み込みガウス混合モデル(DCGMM)を提案する。
バニラ(フラット)のGMMは画像を記述するのに非常に多くのコンポーネントを必要とし、長いトレーニング時間とメモリの問題を引き起こす。
DCGMMは、畳み込みとプーリング操作によってリンクされた複数のGMM層の積み重ねたアーキテクチャによってこれを回避している。
これにより、ディープCNNと同じように、画像の合成性を活用できる。
DCGMMはStochastic Gradient Descentによってエンドツーエンドでトレーニングすることができる。
これにより、期待-最大化によって訓練されたバニラGMMとは分離され、層構造では不可能なk平均初期化が要求される。
dcgmmsでシャープな画像を生成するために,畳み込みやプーリングなどの非可逆操作をサンプリングする新しい勾配に基づく手法を提案する。
MNISTとFashionMNISTのデータセットに基づいて,クラスタリング,サンプリング,外乱検出において,フラットなGMMよりも優れていることを示す。
関連論文リスト
- A new perspective on probabilistic image modeling [92.89846887298852]
本稿では,密度推定,サンプリング,トラクタブル推論が可能な画像モデリングのための新しい確率論的手法を提案する。
DCGMMは、CNNのように、ランダムな初期条件からSGDによってエンドツーエンドに訓練することができる。
本研究は,近年のPCおよびSPNモデルと,推論,分類,サンプリングの観点から比較した。
論文 参考訳(メタデータ) (2022-03-21T14:53:57Z) - Smoothed Gaussian Mixture Models for Video Classification and
Recommendation [10.119117405418868]
SGMM(S smoothed Gaussian mixed Model)と呼ばれる新しいクラスタ・アンド・アグリゲート法を提案する。
YouTube-8M分類タスクの広範な実験を通じて、SGMM/DSGMMはVLAD/NetVLADよりも一貫して優れていますが、統計的に有意なマージンを示しています。
論文 参考訳(メタデータ) (2020-12-17T06:52:41Z) - RG-Flow: A hierarchical and explainable flow model based on
renormalization group and sparse prior [2.274915755738124]
フローベース生成モデルは、教師なし学習アプローチの重要なクラスとなっている。
本研究では, 階層型フローベース生成モデル RG-Flow の設計のために, 再正規化群 (RG) とスパース事前分布の鍵となる概念を取り入れた。
提案手法は, エッジ長が$L$の画像の描画に$O(log L)$の複雑さを伴っているが, 従来より$O(L2)$の複雑性を持つ生成モデルに比べれば, エッジ長が$L$の画像の描画には$O(log L)$の複雑さがある。
論文 参考訳(メタデータ) (2020-09-30T18:04:04Z) - Prototype Mixture Models for Few-shot Semantic Segmentation [50.866870384596446]
サポートやクエリ画像内のオブジェクトが外観やポーズで大きく異なる可能性があるため、ショットのセグメンテーションは難しい。
プロトタイプベースセマンティック表現を強制するために,多種多様な画像領域と複数のプロトタイプとの相関関係を持つプロトタイプ混合モデル(PMMs)を提案する。
PMMはMS-COCOの5ショットセグメンテーション性能を最大5.82%改善し、モデルサイズと推論速度の適度なコストに留まった。
論文 参考訳(メタデータ) (2020-08-10T04:33:17Z) - Locally Masked Convolution for Autoregressive Models [107.4635841204146]
LMConvは標準的な2Dコンボリューションの簡単な修正であり、任意のマスクを画像の各位置の重みに適用することができる。
我々は,パラメータを共有するが生成順序が異なる分布推定器のアンサンブルを学習し,全画像密度推定の性能を向上させる。
論文 参考訳(メタデータ) (2020-06-22T17:59:07Z) - GAT-GMM: Generative Adversarial Training for Gaussian Mixture Models [29.42264360774606]
GAN(Generative Adversarial Network)は、ゼロサムゲームを通して観測されたサンプルの分布を学習する。
本稿では,GAT-GMM(Gene Adversarial Gaussian Models)を提案する。
GAT-GMMは2つのガウスの混合学習において期待-最大化アルゴリズムと同様に機能することを示す。
論文 参考訳(メタデータ) (2020-06-18T06:11:28Z) - PointGMM: a Neural GMM Network for Point Clouds [83.9404865744028]
点雲は3次元形状の一般的な表現であるが、形状の先行や非局所的な情報を考慮せずに特定のサンプリングを符号化する。
本稿では,形状クラスの特徴であるhGMMの生成を学習するニューラルネットワークであるPointGMMを提案する。
生成モデルとして、PointGMMは既存の形状間の整合性を生成できる有意義な潜在空間を学習することを示す。
論文 参考訳(メタデータ) (2020-03-30T10:34:59Z) - Semi-Supervised Learning with Normalizing Flows [54.376602201489995]
FlowGMMは、フローの正規化を伴う生成半教師付き学習におけるエンドツーエンドのアプローチである。
我々は AG-News や Yahoo Answers のテキストデータなど,幅広いアプリケーションに対して有望な結果を示す。
論文 参考訳(メタデータ) (2019-12-30T17:36:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。