論文の概要: DO-EM: Density Operator Expectation Maximization
- arxiv url: http://arxiv.org/abs/2507.22786v1
- Date: Wed, 30 Jul 2025 15:51:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-31 16:14:18.298761
- Title: DO-EM: Density Operator Expectation Maximization
- Title(参考訳): DO-EM:密度演算子期待の最大化
- Authors: Adit Vishnu, Abhay Shastry, Dhruva Kashyap, Chiranjib Bhattacharyya,
- Abstract要約: 我々は,従来のハードウェア上でtextbfDOM によって定義された潜在変数モデルを学習するための期待最大化フレームワークを開発した。
textbfDO-EMアルゴリズムは,多種多様なモデルに対して,反復的かつ非減少的なログ類似性を保証する。
我々は、DBMと同じリソースでトレーニングできるtextbfDOMである、Quantum Interleaved Deep Boltzmann Machines (textbfQiDBMs)を提案する。
- 参考スコア(独自算出の注目度): 10.697014584408963
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Density operators, quantum generalizations of probability distributions, are gaining prominence in machine learning due to their foundational role in quantum computing. Generative modeling based on density operator models (\textbf{DOMs}) is an emerging field, but existing training algorithms -- such as those for the Quantum Boltzmann Machine -- do not scale to real-world data, such as the MNIST dataset. The Expectation-Maximization algorithm has played a fundamental role in enabling scalable training of probabilistic latent variable models on real-world datasets. \textit{In this paper, we develop an Expectation-Maximization framework to learn latent variable models defined through \textbf{DOMs} on classical hardware, with resources comparable to those used for probabilistic models, while scaling to real-world data.} However, designing such an algorithm is nontrivial due to the absence of a well-defined quantum analogue to conditional probability, which complicates the Expectation step. To overcome this, we reformulate the Expectation step as a quantum information projection (QIP) problem and show that the Petz Recovery Map provides a solution under sufficient conditions. Using this formulation, we introduce the Density Operator Expectation Maximization (DO-EM) algorithm -- an iterative Minorant-Maximization procedure that optimizes a quantum evidence lower bound. We show that the \textbf{DO-EM} algorithm ensures non-decreasing log-likelihood across iterations for a broad class of models. Finally, we present Quantum Interleaved Deep Boltzmann Machines (\textbf{QiDBMs}), a \textbf{DOM} that can be trained with the same resources as a DBM. When trained with \textbf{DO-EM} under Contrastive Divergence, a \textbf{QiDBM} outperforms larger classical DBMs in image generation on the MNIST dataset, achieving a 40--60\% reduction in the Fr\'echet Inception Distance.
- Abstract(参考訳): 密度演算子、確率分布の量子一般化は、量子コンピューティングにおける基礎的な役割により、機械学習において注目されている。
密度演算子モデル(\textbf{DOMs})に基づく生成モデリングは、新興分野であるが、量子ボルツマンマシンのような既存のトレーニングアルゴリズムは、MNISTデータセットのような現実世界のデータにスケールしない。
expectation-Maximizationアルゴリズムは、現実のデータセット上で確率的潜在変数モデルのスケーラブルなトレーニングを可能にする上で、基本的な役割を担っている。
本稿では,従来のハードウェアで定義されている潜在変数モデルを,実世界のデータにスケールしながら,確率モデルに匹敵するリソースで学習する,期待最大化フレームワークを開発する。
しかし、そのようなアルゴリズムを設計するのは、条件付き確率によく定義された量子アナログが存在しないため、期待するステップが複雑になるため、簡単ではない。
これを解決するために、期待ステップを量子情報投影(QIP)問題として再構成し、ペッツ回収マップが十分な条件下で解を提供することを示す。
この定式化を用いて、量子エビデンスを下限に最適化する反復的ミノラント最大化法である密度演算子予測最大化(DO-EM)アルゴリズムを導入する。
提案アルゴリズムは,多種多様なモデルの反復に対して,非減少的なログライクな動作を保証できることを実証する。
最後に、DBMと同じリソースでトレーニングできる \textbf{DOM} である Quantum Interleaved Deep Boltzmann Machines (\textbf{QiDBMs}) を紹介する。
Contrastive Divergence の下で \textbf{DO-EM} をトレーニングすると、 \textbf{QiDBM} は MNIST データセット上の画像生成において、より大きな古典的 DBM よりも優れ、Fr\echet Inception Distance の 40-60 % の削減を実現している。
関連論文リスト
- MPQ-DMv2: Flexible Residual Mixed Precision Quantization for Low-Bit Diffusion Models with Temporal Distillation [74.34220141721231]
我々は,textbfMixed textbfPrecision textbfQuantizationフレームワークを改良したMPQ-DMv2を提案する。
論文 参考訳(メタデータ) (2025-07-06T08:16:50Z) - Maximal Entropy Formalism and the Restricted Boltzmann Machine [1.7563879056963012]
本稿では、近似量子状態に対する確率モデルとして制限ボルツマンマシン(RBM)を紹介する。
我々は、RBMトレーニングを強化するために量子サンプリング技術を採用し、スケーラブルで高忠実な量子状態再構成を可能にする。
提案手法は、任意の混合量子状態が不完全かつ潜在的に非可換な期待集合から再構成される一般かつ未適応な場合に適用する。
論文 参考訳(メタデータ) (2025-04-04T17:57:20Z) - Expressive equivalence of classical and quantum restricted Boltzmann machines [1.1639171061272031]
古典データに対する半量子制限ボルツマンマシン(sqRBM)を提案する。
sqRBM は可視部分空間で通信し、非可視部分空間で通信を継続する。
我々の理論的分析は、与えられた確率分布を学習するために、RBMはsqRBMの3倍の隠れ単位を必要とすることを予測している。
論文 参考訳(メタデータ) (2025-02-24T19:00:02Z) - Preconditioned Inexact Stochastic ADMM for Deep Model [35.37705488695026]
本稿では,拡張性のある並列コンピューティングを実現するアルゴリズムであるPISAを開発し,様々な前提条件をサポートする。
これは、有界領域上の勾配のリプシッツ連続性の唯一の仮定の下で収束し、メソッドによって一般的に課される他の条件の必要性を取り除く。
様々な最先端の繰り返しに比べて優れた数値性能を示す。
論文 参考訳(メタデータ) (2025-02-15T12:28:51Z) - Conditional Distribution Quantization in Machine Learning [83.54039134248231]
条件予測 mathbbE(Y Mid X) はしばしば、マルチモーダル条件分布の複雑さを捉えることに失敗する(Y Mid X)
我々はn点条件量子化(n-point Conditional Quantizations)-勾配降下により学習可能なXの関数写像--近似数学L(Y mid X)-を提案する。
論文 参考訳(メタデータ) (2025-02-11T00:28:24Z) - Accelerated zero-order SGD under high-order smoothness and overparameterized regime [79.85163929026146]
凸最適化問題を解くための新しい勾配のないアルゴリズムを提案する。
このような問題は医学、物理学、機械学習で発生する。
両種類の雑音下で提案アルゴリズムの収束保証を行う。
論文 参考訳(メタデータ) (2024-11-21T10:26:17Z) - $ζ$-QVAE: A Quantum Variational Autoencoder utilizing Regularized Mixed-state Latent Representations [1.0687104237121408]
量子コンピューティングにおける大きな課題は、量子ハードウェアリソースが不足しているため、大規模な実世界のデータセットに適用することである。
古典的VAEのすべての機能を含む完全量子フレームワークである$zeta$-QVAEを提示する。
我々の結果は、$zeta$-QVAEが潜在空間の容量をよりよく活用する表現を学習していることを示している。
論文 参考訳(メタデータ) (2024-02-27T18:37:01Z) - Monotone deep Boltzmann machines [86.50247625239406]
ディープボルツマンマシン(Deep Boltzmann Machine、DBM)は、双対エネルギー関数によって制御される多層確率モデルである。
我々は,各層で任意の自己接続が可能な新しい制限モデルであるモノトンDBMを開発した。
アクティベーションの特定の選択が、変動平均場解を与える固定点反復をもたらすことを示す。
論文 参考訳(メタデータ) (2023-07-11T03:02:44Z) - Ensemble Multi-Quantiles: Adaptively Flexible Distribution Prediction
for Uncertainty Quantification [4.728311759896569]
本稿では,機械学習における不確実性を定量化するために,分布予測の新しい,簡潔かつ効果的な手法を提案する。
これは回帰タスクにおいて$mathbbP(mathbfy|mathbfX=x)$の適応的に柔軟な分布予測を組み込む。
UCIデータセットからの大規模な回帰タスクでは、EMQが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2022-11-26T11:45:32Z) - Do Quantum Circuit Born Machines Generalize? [58.720142291102135]
本稿では,量子生成モデルの積分評価指標としてQCBMの一般化性能を示す文献で最初に紹介する。
そこで本研究では,QCBMがデータセットの再重み付けを効果的に学習し,未確認のサンプルをトレーニングセットよりも高い品質で生成可能であることを示す。
論文 参考訳(メタデータ) (2022-07-27T17:06:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。