論文の概要: Information Theoretic Structured Generative Modeling
- arxiv url: http://arxiv.org/abs/2110.05794v1
- Date: Tue, 12 Oct 2021 07:44:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-13 13:44:41.451399
- Title: Information Theoretic Structured Generative Modeling
- Title(参考訳): 情報理論構造生成モデリング
- Authors: Bo Hu, Shujian Yu, Jose C. Principe
- Abstract要約: 構造生成モデル (Structured Generative Model, SGM) と呼ばれる新しい生成モデルフレームワークが提案され, 簡単な最適化が可能となった。
この実装では、無限のガウス混合モデルを学習するために適合した単一白色ノイズ源への正則入力によって駆動される1つのニューラルネットワークを採用している。
予備的な結果は、SGMがデータ効率と分散、従来のガウス混合モデルと変分混合モデル、および敵ネットワークのトレーニングにおいてMINE推定を著しく改善することを示している。
- 参考スコア(独自算出の注目度): 13.117829542251188
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: R\'enyi's information provides a theoretical foundation for tractable and
data-efficient non-parametric density estimation, based on pair-wise
evaluations in a reproducing kernel Hilbert space (RKHS). This paper extends
this framework to parametric probabilistic modeling, motivated by the fact that
R\'enyi's information can be estimated in closed-form for Gaussian mixtures.
Based on this special connection, a novel generative model framework called the
structured generative model (SGM) is proposed that makes straightforward
optimization possible, because costs are scale-invariant, avoiding high
gradient variance while imposing less restrictions on absolute continuity,
which is a huge advantage in parametric information theoretic optimization. The
implementation employs a single neural network driven by an orthonormal input
appended to a single white noise source adapted to learn an infinite Gaussian
mixture model (IMoG), which provides an empirically tractable model
distribution in low dimensions. To train SGM, we provide three novel
variational cost functions, based on R\'enyi's second-order entropy and
divergence, to implement minimization of cross-entropy, minimization of
variational representations of $f$-divergence, and maximization of the evidence
lower bound (conditional probability). We test the framework for estimation of
mutual information and compare the results with the mutual information neural
estimation (MINE), for density estimation, for conditional probability
estimation in Markov models as well as for training adversarial networks. Our
preliminary results show that SGM significantly improves MINE estimation in
terms of data efficiency and variance, conventional and variational Gaussian
mixture models, as well as the performance of generative adversarial networks.
- Abstract(参考訳): R'enyiの情報は、再生カーネルヒルベルト空間(RKHS)におけるペアワイズ評価に基づいて、トラクタブルでデータ効率のよい非パラメトリック密度推定の理論的基礎を提供する。
本稿は、R\'enyiの情報がガウス混合の閉形式で推定できるという事実に動機づけられたパラメトリック確率モデルに拡張する。
この特別な接続に基づき、コストはスケール不変であり、絶対連続性に対する制約を少なくしつつ高い勾配分散を回避し、パラメトリック情報理論最適化において大きな利点となる、構造生成モデル(structured generative model, sgm)と呼ばれる新しい生成モデルフレームワークが提案されている。
この実装では、無限ガウス混合モデル(IMoG)の学習に適合する単一白色ノイズ源に付加された正規正規入力によって駆動される単一ニューラルネットワークを用いており、低次元での実験的に抽出可能なモデル分布を提供する。
SGMを訓練するために、R\'enyiの2階エントロピーと発散に基づく3つの新しい変分コスト関数を提供し、クロスエントロピーの最小化、$f$-divergenceの変分表現の最小化、エビデンスの下限(条件付き確率)の最大化を行う。
相互情報推定の枠組みをテストし,その結果を相互情報ニューラル推定(mine)と比較し,密度推定,マルコフモデルにおける条件付き確率推定,逆ネットワークの訓練について検討した。
予備実験の結果,sgmは,データ効率とばらつき,従来のガウス混合モデルと変分ガウス混合モデル,および生成型逆ネットワークの性能において,地雷推定を著しく改善することが示された。
関連論文リスト
- Variational Bayesian surrogate modelling with application to robust design optimisation [0.9626666671366836]
サロゲートモデルは複雑な計算モデルに対して素早く評価できる近似を提供する。
入力の不確かさと次元減少を伴う統計的代理を構築するためのベイズ推定について考察する。
コスト関数がモデル出力の平均および標準偏差の重み付け和に依存するような本質的で頑健な構造最適化問題を示す。
論文 参考訳(メタデータ) (2024-04-23T09:22:35Z) - A probabilistic, data-driven closure model for RANS simulations with aleatoric, model uncertainty [1.8416014644193066]
本稿では,レノルズ平均Navier-Stokes (RANS) シミュレーションのためのデータ駆動閉包モデルを提案する。
パラメトリック閉包が不十分な問題領域内の領域を特定するために,完全ベイズ的定式化と余剰誘導先行法を組み合わせて提案する。
論文 参考訳(メタデータ) (2023-07-05T16:53:31Z) - Learning Unnormalized Statistical Models via Compositional Optimization [73.30514599338407]
実データと人工雑音のロジスティックな損失として目的を定式化することにより, ノイズコントラスト推定(NCE)を提案する。
本稿では,非正規化モデルの負の対数類似度を最適化するための直接的アプローチについて検討する。
論文 参考訳(メタデータ) (2023-06-13T01:18:16Z) - A Model for Multi-View Residual Covariances based on Perspective
Deformation [88.21738020902411]
マルチビューSfM, オードメトリ, SLAMセットアップにおける視覚的残差の共分散モデルの導出を行う。
我々は、合成データと実データを用いてモデルを検証し、それを光度および特徴量に基づくバンドル調整に統合する。
論文 参考訳(メタデータ) (2022-02-01T21:21:56Z) - Inverting brain grey matter models with likelihood-free inference: a
tool for trustable cytoarchitecture measurements [62.997667081978825]
脳の灰白質細胞構造の特徴は、体密度と体積に定量的に敏感であり、dMRIでは未解決の課題である。
我々は新しいフォワードモデル、特に新しい方程式系を提案し、比較的スパースなb殻を必要とする。
次に,提案手法を逆転させるため,確率自由推論 (LFI) として知られるベイズ解析から最新のツールを適用した。
論文 参考訳(メタデータ) (2021-11-15T09:08:27Z) - Probabilistic partition of unity networks: clustering based deep
approximation [0.0]
ユニタリネットワーク(POU-Nets)の分割は、回帰とPDEの解に対する代数収束率を実現することができる。
ガウス雑音モデルを用いてPOU-Netを拡張し、最大可算損失の勾配に基づく一般化を導出できる確率的一般化を得る。
本研究では,高次元・低次元での性能を定量化するためのベンチマークを行い,高次元空間内のデータの潜在次元にのみ依存することを示す。
論文 参考訳(メタデータ) (2021-07-07T08:02:00Z) - Low-rank Characteristic Tensor Density Estimation Part II: Compression
and Latent Density Estimation [31.631861197477185]
生成確率モデルを学習することは、機械学習における中核的な問題である。
本稿では,共同次元化と非パラメトリック密度推定の枠組みを提案する。
提案手法は, 回帰処理, サンプリング, 異常検出において, 極めて有望な結果が得られることを示す。
論文 参考訳(メタデータ) (2021-06-20T00:38:56Z) - MINIMALIST: Mutual INformatIon Maximization for Amortized Likelihood
Inference from Sampled Trajectories [61.3299263929289]
シミュレーションベースの推論は、その可能性が実際に計算できない場合でもモデルのパラメータを学習することができる。
あるクラスのメソッドは、異なるパラメータでシミュレートされたデータを使用して、確率とエビデンス比の償却推定器を推定する。
モデルパラメータとシミュレーションデータ間の相互情報の観点から,本手法が定式化可能であることを示す。
論文 参考訳(メタデータ) (2021-06-03T12:59:16Z) - Post-mortem on a deep learning contest: a Simpson's paradox and the
complementary roles of scale metrics versus shape metrics [61.49826776409194]
我々は、ニューラルネットワーク(NN)モデルの一般化精度を予測するために、コンテストで公に利用可能にされたモデルのコーパスを分析する。
メトリクスが全体としてよく機能するが、データのサブパーティションではあまり機能しない。
本稿では,データに依存しない2つの新しい形状指標と,一連のNNのテスト精度の傾向を予測できるデータ依存指標を提案する。
論文 参考訳(メタデータ) (2021-06-01T19:19:49Z) - Autoregressive Score Matching [113.4502004812927]
自動回帰条件スコアモデル(AR-CSM)を提案する。
AR-CSMモデルでは、このデータ分布とモデル分布のばらつきを効率的に計算し、最適化することができ、高価なサンプリングや対向訓練を必要としない。
本研究では,合成データに対する密度推定,画像生成,画像復調,暗黙エンコーダを用いた潜在変数モデルの訓練に応用できることを示す。
論文 参考訳(メタデータ) (2020-10-24T07:01:24Z) - Learning Generative Models using Denoising Density Estimators [29.068491722778827]
縮退密度推定器(DDE)に基づく新しい生成モデルを提案する。
我々の主な貢献は、KL分割を直接最小化することで生成モデルを得る新しい技術である。
実験結果から, 生成モデル学習における密度推定と競争性能が大幅に向上した。
論文 参考訳(メタデータ) (2020-01-08T20:30:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。