論文の概要: A new perspective on probabilistic image modeling
- arxiv url: http://arxiv.org/abs/2203.11034v1
- Date: Mon, 21 Mar 2022 14:53:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-22 18:13:00.816174
- Title: A new perspective on probabilistic image modeling
- Title(参考訳): 確率論的画像モデリングの新展開
- Authors: Alexander Gepperth
- Abstract要約: 本稿では,密度推定,サンプリング,トラクタブル推論が可能な画像モデリングのための新しい確率論的手法を提案する。
DCGMMは、CNNのように、ランダムな初期条件からSGDによってエンドツーエンドに訓練することができる。
本研究は,近年のPCおよびSPNモデルと,推論,分類,サンプリングの観点から比較した。
- 参考スコア(独自算出の注目度): 92.89846887298852
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present the Deep Convolutional Gaussian Mixture Model (DCGMM), a new
probabilistic approach for image modeling capable of density estimation,
sampling and tractable inference. DCGMM instances exhibit a CNN-like layered
structure, in which the principal building blocks are convolutional Gaussian
Mixture (cGMM) layers. A key innovation w.r.t. related models like sum-product
networks (SPNs) and probabilistic circuits (PCs) is that each cGMM layer
optimizes an independent loss function and therefore has an independent
probabilistic interpretation. This modular approach permits intervening
transformation layers to harness the full spectrum of (potentially
non-invertible) mappings available to CNNs, e.g., max-pooling or
half-convolutions. DCGMM sampling and inference are realized by a deep chain of
hierarchical priors, where a sample generated by a given cGMM layer defines the
parameters of sampling in the next-lower cGMM layer. For sampling through
non-invertible transformation layers, we introduce a new gradient-based
sharpening technique that exploits redundancy (overlap) in, e.g.,
half-convolutions. DCGMMs can be trained end-to-end by SGD from random initial
conditions, much like CNNs. We show that DCGMMs compare favorably to several
recent PC and SPN models in terms of inference, classification and sampling,
the latter particularly for challenging datasets such as SVHN. We provide a
public TF2 implementation.
- Abstract(参考訳): 本稿では,密度推定,サンプリング,トラクタブル推論が可能な画像モデリングのための新しい確率論的手法であるDeep Convolutional Gaussian Mixture Model(DCGMM)を提案する。
DCGMMインスタンスはCNNのような層構造を示し、主な構成要素は畳み込みガウス混合層(cGMM)である。
和積ネットワーク(SPN)や確率回路(PC)のような関連するモデルにおける重要な革新は、各cGMM層が独立損失関数を最適化し、従って独立確率論的解釈を持つことである。
このモジュラーアプローチにより、インターベンション変換層は、最大プールや半畳み込みなど、CNNで利用可能な(潜在的に非可逆な)マッピングの全スペクトルを利用することができる。
dcgmmサンプリングと推論は、所定のcgmm層によって生成されたサンプルが次の低レベルcgmm層でサンプリングのパラメータを定義する階層的事前の深い連鎖によって実現される。
非可逆変換層をサンプリングするために、例えば半畳み込みのような冗長性(オーバーラップ)を利用する新しい勾配に基づく研削技術を導入する。
DCGMMは、CNNのように、ランダムな初期条件からSGDによってエンドツーエンドに訓練することができる。
SVHN などの挑戦的データセットでは,近年の PC や SPN モデルと,推論,分類,サンプリングの面で比較してよい結果が得られた。
我々は、パブリックtf2の実装を提供する。
関連論文リスト
- Steering Masked Discrete Diffusion Models via Discrete Denoising Posterior Prediction [88.65168366064061]
本稿では,確率論的推論の課題として,事前学習したMDMを操る作業を行う新しいフレームワークであるDDPPを紹介する。
私たちのフレームワークは、3つの新しい目標のファミリーにつながります。
Wet-lab Validation(ウェット・ラブ・バリデーション)を用いて,報酬最適化タンパク質配列の過渡的発現を観察する。
論文 参考訳(メタデータ) (2024-10-10T17:18:30Z) - Deep Gaussian mixture model for unsupervised image segmentation [1.3654846342364308]
多くのタスクにおいて、十分なピクセルレベルのラベルを得るのは非常に困難である。
本稿では,ガウス混合モデル(GMM)と教師なしディープラーニング技術を組み合わせた手法を提案する。
マルチシーケンスMRI画像における梗塞領域分割の例について, 様々な実験において本手法の利点を実証する。
論文 参考訳(メタデータ) (2024-04-18T15:20:59Z) - Consistency Trajectory Models: Learning Probability Flow ODE Trajectory of Diffusion [56.38386580040991]
Consistency Trajectory Model (CTM) は Consistency Models (CM) の一般化である
CTMは、対戦訓練とスコアマッチング損失を効果的に組み合わせることで、パフォーマンスを向上させる。
CMとは異なり、CTMのスコア関数へのアクセスは、確立された制御可能/条件生成メソッドの採用を合理化することができる。
論文 参考訳(メタデータ) (2023-10-01T05:07:17Z) - A differentiable Gaussian Prototype Layer for explainable Segmentation [3.258592531141818]
勾配に基づくプロトタイプ学習のための勾配ベースのプロトタイプ層を導入する。
説明可能なニューラルネットワークのための新しいビルディングブロックとして使用できることを示す。
論文 参考訳(メタデータ) (2023-06-25T22:33:21Z) - Image Modeling with Deep Convolutional Gaussian Mixture Models [79.0660895390689]
画像の記述と生成に適したGMM(Deep Hierarchical Gaussian Mixture Models)の新しい定式化を紹介します。
DCGMMは、畳み込みとプーリング操作によってリンクされた複数のGMM層の積み重ねたアーキテクチャによってこれを回避している。
dcgmmsでシャープな画像を生成するために,畳み込みやプーリングなどの非可逆操作をサンプリングする新しい勾配に基づく手法を提案する。
MNISTとFashionMNISTのデータセットに基づいて,クラスタリング,サンプリング,外乱検出において,フラットなGMMよりも優れていることを示すことで,DCGMMsモデルを検証した。
論文 参考訳(メタデータ) (2021-04-19T12:08:53Z) - DS-UI: Dual-Supervised Mixture of Gaussian Mixture Models for
Uncertainty Inference [52.899219617256655]
本稿では、ディープニューラルネットワーク(DNN)に基づく画像認識において、ベイズ推定に基づく不確実性推論(UI)を改善するための二重教師付き不確実性推論(DS-UI)フレームワークを提案する。
DS-UIでは、最後の完全連結(FC)層とガウス混合モデル(MoGMM)を組み合わせ、MoGMM-FC層を得る。
実験の結果,DS-UIは誤分類検出において最先端のUI手法よりも優れていた。
論文 参考訳(メタデータ) (2020-11-17T12:35:02Z) - RG-Flow: A hierarchical and explainable flow model based on
renormalization group and sparse prior [2.274915755738124]
フローベース生成モデルは、教師なし学習アプローチの重要なクラスとなっている。
本研究では, 階層型フローベース生成モデル RG-Flow の設計のために, 再正規化群 (RG) とスパース事前分布の鍵となる概念を取り入れた。
提案手法は, エッジ長が$L$の画像の描画に$O(log L)$の複雑さを伴っているが, 従来より$O(L2)$の複雑性を持つ生成モデルに比べれば, エッジ長が$L$の画像の描画には$O(log L)$の複雑さがある。
論文 参考訳(メタデータ) (2020-09-30T18:04:04Z) - Semi-Supervised Learning with Normalizing Flows [54.376602201489995]
FlowGMMは、フローの正規化を伴う生成半教師付き学習におけるエンドツーエンドのアプローチである。
我々は AG-News や Yahoo Answers のテキストデータなど,幅広いアプリケーションに対して有望な結果を示す。
論文 参考訳(メタデータ) (2019-12-30T17:36:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。