論文の概要: Subtractive Mixture Models via Squaring: Representation and Learning
- arxiv url: http://arxiv.org/abs/2310.00724v3
- Date: Fri, 26 Apr 2024 17:08:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-29 18:07:56.537924
- Title: Subtractive Mixture Models via Squaring: Representation and Learning
- Title(参考訳): エクアリングによる抽出混合モデル:表現と学習
- Authors: Lorenzo Loconte, Aleksanteri M. Sladek, Stefan Mengel, Martin Trapp, Arno Solin, Nicolas Gillis, Antonio Vergari,
- Abstract要約: 提案手法は, 深層抽出混合物の学習と推論を行う方法である。
理論的には、減算を許容する正方形回路のクラスは、従来の添加剤の混合よりも指数関数的に表現可能であることを証明している。
- 参考スコア(独自算出の注目度): 27.709662837157058
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Mixture models are traditionally represented and learned by adding several distributions as components. Allowing mixtures to subtract probability mass or density can drastically reduce the number of components needed to model complex distributions. However, learning such subtractive mixtures while ensuring they still encode a non-negative function is challenging. We investigate how to learn and perform inference on deep subtractive mixtures by squaring them. We do this in the framework of probabilistic circuits, which enable us to represent tensorized mixtures and generalize several other subtractive models. We theoretically prove that the class of squared circuits allowing subtractions can be exponentially more expressive than traditional additive mixtures; and, we empirically show this increased expressiveness on a series of real-world distribution estimation tasks.
- Abstract(参考訳): 混合モデルは伝統的に、いくつかの分布をコンポーネントとして追加することによって表現され、学習される。
確率質量や密度を減じるために混合物を与えると、複雑な分布をモデル化するのに必要な成分の数が劇的に減少する。
しかし、そのような減算混合を学習し、非負の関数を符号化し続けることは困難である。
そこで本研究では, 深層抽出混合物の抽出と解析について検討した。
確率回路の枠組みでこれを行えば、テンソル化混合を表現でき、他のいくつかの減算的モデルを一般化できる。
理論的には, 減算が可能な正方形回路のクラスは, 従来の添加剤の混合よりも指数関数的に表現可能であることを証明し, 実世界の分布推定タスクにおいて, この表現性の増加を実証的に示す。
関連論文リスト
- SUMix: Mixup with Semantic and Uncertain Information [41.99721365685618]
混合データ拡張アプローチは、ディープラーニングの様々なタスクに応用されている。
そこで我々は,SUMix という新しい手法を提案し,混合率と混合試料の不確かさを学習する。
論文 参考訳(メタデータ) (2024-07-10T16:25:26Z) - Learning Mixtures of Gaussians Using Diffusion Models [9.118706387430883]
テレビエラーに対して$k$ Gaussiansの混合を学習するための新しいアルゴリズムを提案する。
我々のアプローチは解析的であり、拡散モデルの枠組みに依存している。
論文 参考訳(メタデータ) (2024-04-29T17:00:20Z) - Generative Modeling on Manifolds Through Mixture of Riemannian Diffusion Processes [57.396578974401734]
一般多様体上に生成拡散過程を構築するための原理的枠組みを導入する。
従来の拡散モデルの認知的アプローチに従う代わりに、橋梁プロセスの混合を用いて拡散過程を構築する。
混合過程を幾何学的に理解し,データ点への接する方向の重み付け平均としてドリフトを導出する。
論文 参考訳(メタデータ) (2023-10-11T06:04:40Z) - Soft Mixture Denoising: Beyond the Expressive Bottleneck of Diffusion
Models [76.46246743508651]
我々は,現在の拡散モデルが後方認知において表現力のあるボトルネックを持っていることを示した。
本稿では,後方復調のための表現的かつ効率的なモデルであるソフトミキシング・デノナイジング(SMD)を導入する。
論文 参考訳(メタデータ) (2023-09-25T12:03:32Z) - Reweighted Mixup for Subpopulation Shift [63.1315456651771]
サブポピュレーションシフトは、多くの実世界のアプリケーションに存在し、同じサブポピュレーショングループを含むが異なるサブポピュレーション比率を持つトレーニングとテストの分布を指す。
重要度再重み付けは、サブポピュレーションシフトを処理する古典的で効果的な方法である。
我々は、オーバーフィッティング問題を緩和するために、reweighted mixupと呼ばれるシンプルで実用的なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-09T03:44:50Z) - RegMixup: Mixup as a Regularizer Can Surprisingly Improve Accuracy and
Out Distribution Robustness [94.69774317059122]
学習目的として使うのではなく、標準のクロスエントロピー損失に対する追加の正則化剤として利用すれば、良好なミックスアップの有効性がさらに向上できることが示される。
この単純な変更は、精度を大幅に改善するだけでなく、Mixupの予測不確実性推定の品質を大幅に改善する。
論文 参考訳(メタデータ) (2022-06-29T09:44:33Z) - A Robust and Flexible EM Algorithm for Mixtures of Elliptical
Distributions with Missing Data [71.9573352891936]
本稿では、ノイズや非ガウス的なデータに対するデータ計算の欠如に対処する。
楕円分布と潜在的な欠落データを扱う特性を混合した新しいEMアルゴリズムについて検討した。
合成データの実験的結果は,提案アルゴリズムが外れ値に対して頑健であり,非ガウスデータで使用可能であることを示す。
論文 参考訳(メタデータ) (2022-01-28T10:01:37Z) - Schema matching using Gaussian mixture models with Wasserstein distance [0.2676349883103403]
ガウス混合モデル間のワッサーシュタイン距離の近似を導出し、線形問題に還元する。
本稿では,ガウス混合モデル間のワッサーシュタイン距離の近似の1つを導出し,線形問題に還元する。
論文 参考訳(メタデータ) (2021-11-28T21:44:58Z) - Fitting large mixture models using stochastic component selection [0.0]
本稿では,少数のコンポーネントのみを評価するために,計算とメトロポリス・ハスティングスアルゴリズムの期待値の組み合わせを提案する。
コンポーネント割り当てのマルコフ連鎖は、アルゴリズムのイテレーション間で順次生成される。
提案手法の一般性を重視し,浅い混合モデルと深い混合モデルの両方を訓練する能力を備える。
論文 参考訳(メタデータ) (2021-10-10T12:39:53Z) - Variational Mixture of Normalizing Flows [0.0]
生成逆数ネットワークオートサイトGAN、変分オートエンコーダオートサイトベイペーパー、およびそれらの変種などの深い生成モデルは、複雑なデータ分布をモデル化するタスクに広く採用されている。
正規化フローはこの制限を克服し、確率密度関数にそのような公式の変更を利用する。
本研究は,混合モデルのコンポーネントとして正規化フローを用い,そのようなモデルのエンドツーエンドトレーニング手順を考案することによって,この問題を克服する。
論文 参考訳(メタデータ) (2020-09-01T17:20:08Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。