論文の概要: Exploring Image Generation via Mutually Exclusive Probability Spaces and Local Correlation Hypothesis
- arxiv url: http://arxiv.org/abs/2506.21731v1
- Date: Thu, 26 Jun 2025 19:32:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-30 21:12:22.990441
- Title: Exploring Image Generation via Mutually Exclusive Probability Spaces and Local Correlation Hypothesis
- Title(参考訳): 相互排他確率空間による画像生成の探索と局所相関仮説
- Authors: Chenqiu Zhao, Anup Basu,
- Abstract要約: 確率的生成モデルにおける潜在的な制限を探求する2つの理論的枠組みを提案する。
グローバルな分布を学ぶことは、生成的な振る舞いよりも記憶に繋がる。
本稿では,潜伏変数間の局所相関から生じる生成能力を示す局所相関仮説(LCH)を提案する。
- 参考スコア(独自算出の注目度): 9.131712404284876
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose two theoretical frameworks, the Mutually Exclusive Probability Space (MESP) and the Local Correlation Hypothesis (LCH), to explore a potential limitation in probabilistic generative models; namely that learning global distributions leads to memorization rather than generative behavior. MESP emerges from our rethinking of the Variational Autoencoder (VAE). We observe that latent variable distributions in VAE exhibit overlap, which leads to an optimization conflict between the reconstruction loss and KL-divergence loss. A lower bound based on the overlap coefficient is proposed. We refer to this phenomenon as Mutually Exclusive Probability Spaces. Based on MESP, a Binary Latent Autoencoder (BL-AE) is proposed to encode images into binary latent representations. These binary latents are used as the input to our Autoregressive Random Variable Model (ARVM), a modified autoregressive model outputting histograms. Our ARVM achieves competitive FID scores, outperforming state-of-the-art methods on standard datasets. However, such scores reflect memorization rather than generation. To address this issue, we propose the Local Correlation Hypothesis (LCH), which posits that generative capability arising from local correlations among latent variables. Comprehensive experiments and discussions are conducted to validate our frameworks.
- Abstract(参考訳): 本稿では,多元性確率空間(MESP)と局所相関仮説(LCH)の2つの理論的枠組みを提案し,確率的生成モデルにおける潜在的な限界,すなわち,グローバルな分布の学習が生成行動よりも記憶に繋がることを示す。
MESPは変分オートエンコーダ(VAE)の再考から生まれた。
VAEの潜時変動分布は重複しており, 復元損失とKL偏差損失との間には最適化上の矛盾が生じている。
重なり係数に基づく下界を提案する。
この現象を、相互排他的確率空間(mutually Exclusive Probability spaces)と呼ぶ。
MESPに基づいて、バイナリラテントオートエンコーダ(BL-AE)を提案し、画像をバイナリラテント表現にエンコードする。
これらのバイナリ潜伏剤は、ヒストグラムを出力する修正自己回帰モデルであるARVM(Autoregressive Random Variable Model)の入力として使用される。
我々のARVMは競争力のあるFIDスコアを達成し、標準データセットにおける最先端の手法よりも優れています。
しかし、このようなスコアは世代ではなく記憶を反映している。
この問題に対処するために、潜伏変数間の局所相関から生じる生成能力を示す局所相関仮説(LCH)を提案する。
フレームワークを検証するための総合的な実験と議論を行う。
関連論文リスト
- Learning Mixtures of Experts with EM: A Mirror Descent Perspective [28.48469221248906]
古典的なMixtures of Experts(MoE)は、入力空間を含む機械学習モデルであり、各パーティションでトレーニングされた個別の"エキスパート"モデルである。
我々は,MoEモデルのトレーニングにおける期待最大化(EM)アルゴリズムの理論的保証について検討する。
論文 参考訳(メタデータ) (2024-11-09T03:44:09Z) - Collaborative Heterogeneous Causal Inference Beyond Meta-analysis [68.4474531911361]
異種データを用いた因果推論のための協調的逆確率スコア推定器を提案する。
異質性の増加に伴うメタアナリシスに基づく手法に対して,本手法は有意な改善を示した。
論文 参考訳(メタデータ) (2024-04-24T09:04:36Z) - Time-series Generation by Contrastive Imitation [87.51882102248395]
モーメントマッチングの目的によってモチベーションされ、複合的エラーを軽減し、局所的(しかし前方的な)遷移ポリシーを最適化する。
推論において、学習されたポリシーは反復的なサンプリングのジェネレータとして機能し、学習されたエネルギーはサンプルの品質を評価するための軌道レベル尺度として機能する。
論文 参考訳(メタデータ) (2023-11-02T16:45:25Z) - General Identifiability and Achievability for Causal Representation
Learning [33.80247458590611]
本稿では,潜伏因果グラフにおけるノード毎の2つのハードアンカップリング介入を用いて,識別可能性と達成性を評価する。
同定可能性について,未結合の介入の下で潜伏因果モデルと変数の完全回復が保証されることを示す。
さらに、この分析は、2つのハードカップリングされた介入に対して、同一ノードが介在する2つの環境に関するメタデータが知られている場合に、識別可能性の結果を回復する。
論文 参考訳(メタデータ) (2023-10-24T01:47:44Z) - Delta-AI: Local objectives for amortized inference in sparse graphical models [64.5938437823851]
スパース確率的グラフィカルモデル(PGM)における補正推論のための新しいアルゴリズムを提案する。
提案手法は, PGMにおける変数のサンプリングをエージェントが行う一連の行動とみなす場合, エージェントのポリシー学習目的において, PGMの疎結合が局所的な信用割当を可能にするという観察に基づいている。
合成PGMからサンプリングし、スパース因子構造を持つ潜在変数モデルを訓練するための$Delta$-AIの有効性について説明する。
論文 参考訳(メタデータ) (2023-10-03T20:37:03Z) - Improving Neural Additive Models with Bayesian Principles [54.29602161803093]
ニューラル加算モデル(NAM)は、個別の加算サブネットワークでキャリブレーションされた入力特徴を扱うことにより、ディープニューラルネットワークの透明性を高める。
本研究では,Laplace-approximated NAM (LA-NAMs) を開発した。
論文 参考訳(メタデータ) (2023-05-26T13:19:15Z) - Unsupervised representation learning with recognition-parametrised
probabilistic models [12.865596223775649]
認識パラメータモデル(RPM)に基づく確率的教師なし学習の新しいアプローチを提案する。
観測が条件独立であるというキー前提の下では、RPMはパラメトリックな事前条件付き潜時分布と非パラメトリックな観測因子を結合する。
RPMは、動物と人工知能の両方にとって重要な機能である観測データの基礎となる有意義な潜在構造を発見する強力なフレームワークを提供する。
論文 参考訳(メタデータ) (2022-09-13T00:33:21Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - Generative Model without Prior Distribution Matching [26.91643368299913]
変分オートエンコーダ(VAE)とその変分は、いくつかの先行分布を満たすために低次元の潜在表現を学習することによって古典的な生成モデルである。
我々は、先行変数に適合させるのではなく、先行変数が埋め込み分布と一致するように提案する。
論文 参考訳(メタデータ) (2020-09-23T09:33:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。