論文の概要: Generative Modeling with Quantum Neurons
- arxiv url: http://arxiv.org/abs/2302.00788v1
- Date: Wed, 1 Feb 2023 22:48:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-03 15:59:32.839267
- Title: Generative Modeling with Quantum Neurons
- Title(参考訳): 量子ニューロンによる生成モデリング
- Authors: Kaitlin Gili, Rohan S. Kumar, Mykolas Sveistrys, C. J. Ballance
- Abstract要約: 最近提案されたQuantum Neuron Born Machine (QNBM) は、非線形アクティベーションを用いた最初の量子生成機械学習(ML)モデルとして、品質の初期性能を実証している。
我々は、生成モデルとしてのQNBMのポテンシャルを深く掘り下げることで、かなり前進する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The recently proposed Quantum Neuron Born Machine (QNBM) has demonstrated
quality initial performance as the first quantum generative machine learning
(ML) model proposed with non-linear activations. However, previous
investigations have been limited in scope with regards to the model's
learnability and simulatability. In this work, we make a considerable leap
forward by providing an extensive deep dive into the QNBM's potential as a
generative model. We first demonstrate that the QNBM's network representation
makes it non-trivial to be classically efficiently simulated. Following this
result, we showcase the model's ability to learn (express and train on) a wider
set of probability distributions, and benchmark the performance against a
classical Restricted Boltzmann Machine (RBM). The QNBM is able to outperform
this classical model on all distributions, even for the most optimally trained
RBM among our simulations. Specifically, the QNBM outperforms the RBM with an
improvement factor of 75.3x, 6.4x, and 3.5x for the discrete Gaussian,
cardinality-constrained, and Bars and Stripes distributions respectively.
Lastly, we conduct an initial investigation into the model's generalization
capabilities and use a KL test to show that the model is able to approximate
the ground truth probability distribution more closely than the training
distribution when given access to a limited amount of data. Overall, we put
forth a stronger case in support of using the QNBM for larger-scale generative
tasks.
- Abstract(参考訳): 最近提案されたQuantum Neuron Born Machine (QNBM)は、非線形アクティベーションを備えた最初の量子生成機械学習(ML)モデルとして、品質の初期性能を示している。
しかし、モデルの学習性やシミュラビリティに関して、これまでの調査は範囲に限られていた。
本研究では, 生成モデルとしてのQNBMのポテンシャルを深く掘り下げることで, 飛躍的に前進する。
まず、qnbmのネットワーク表現が古典的に効率的にシミュレーションされることは非自明であることを示す。
この結果、より広い確率分布の集合を学習(表現と訓練)するモデルの能力を示し、古典的制限ボルツマンマシン(RBM)に対して性能をベンチマークする。
QNBMは、シミュレーションの中で最も最適に訓練されたRBMであっても、この古典的モデルを全ての分布で上回ることができる。
具体的には、QNBMはRBMよりも75.3x、6.4x、3.5xで、それぞれ個別のガウス、濃度制限、Bars、Stripesの分布が優れている。
最後に,モデルの一般化能力に関する初期調査を行い,klテストを用いて,限られた量のデータへのアクセスが与えられた場合,モデルがトレーニング分布よりも精度良く基底真理分布を近似できることを示す。
全体として,より大規模な生成タスクにQNBMを併用する上で,より強力な事例を提示した。
関連論文リスト
- A Framework for Demonstrating Practical Quantum Advantage: Racing
Quantum against Classical Generative Models [62.997667081978825]
生成モデルの一般化性能を評価するためのフレームワークを構築した。
古典的および量子生成モデル間の実用的量子優位性(PQA)に対する最初の比較レースを確立する。
以上の結果から,QCBMは,他の最先端の古典的生成モデルよりも,データ制限方式の方が効率的であることが示唆された。
論文 参考訳(メタデータ) (2023-03-27T22:48:28Z) - Is Model Ensemble Necessary? Model-based RL via a Single Model with
Lipschitz Regularized Value Function [23.255250192599327]
確率力学モデルアンサンブルは、既存のモデルに基づく強化学習法で広く使われている。
値函数に対して、リプシッツ条件が強くなるほど、真の力学によって誘導されるベルマン作用素の間のギャップは小さくなる。
論文 参考訳(メタデータ) (2023-02-02T17:27:16Z) - Improving and generalizing flow-based generative models with minibatch
optimal transport [90.01613198337833]
連続正規化フロー(CNF)のための一般条件流整合(CFM)技術を導入する。
CFMは、拡散モデルのフローをトレーニングするために使用されるような安定した回帰目標を特徴としているが、決定論的フローモデルの効率的な推論を好んでいる。
我々の目的の変種は最適輸送CFM (OT-CFM) であり、訓練がより安定し、より高速な推論をもたらすより単純なフローを生成する。
論文 参考訳(メタデータ) (2023-02-01T14:47:17Z) - Do Quantum Circuit Born Machines Generalize? [58.720142291102135]
本稿では,量子生成モデルの積分評価指標としてQCBMの一般化性能を示す文献で最初に紹介する。
そこで本研究では,QCBMがデータセットの再重み付けを効果的に学習し,未確認のサンプルをトレーニングセットよりも高い品質で生成可能であることを示す。
論文 参考訳(メタデータ) (2022-07-27T17:06:34Z) - Introducing Non-Linearity into Quantum Generative Models [0.0]
我々は、ニューラルネットワーク構造を介して非線形アクティベーションを標準のBorn Machineフレームワークに追加するモデルを導入する。
非線形QNBMと線形量子回路ボルンマシンを比較した。
両モデルとも、自明な均一な確率分布を容易に学習できるが、QNBMはQCBMの約3倍の誤差率を達成する。
論文 参考訳(メタデータ) (2022-05-28T18:59:49Z) - KNODE-MPC: A Knowledge-based Data-driven Predictive Control Framework
for Aerial Robots [5.897728689802829]
我々は、知識に基づくニューラル常微分方程式(KNODE)というディープラーニングツールを用いて、第一原理から得られたモデルを拡張する。
得られたハイブリッドモデルは、名目上の第一原理モデルと、シミュレーションまたは実世界の実験データから学習したニューラルネットワークの両方を含む。
閉ループ性能を改善するため、ハイブリッドモデルはKNODE-MPCとして知られる新しいMPCフレームワークに統合される。
論文 参考訳(メタデータ) (2021-09-10T12:09:18Z) - Deep neural network enabled corrective source term approach to hybrid
analysis and modeling [0.0]
ハイブリッド分析モデリング(Hybrid Analysis and Modeling, HAM)は、物理に基づくモデリングとデータ駆動モデリングを組み合わせることを目的とした、新しいモデリングパラダイムである。
補正元項アプローチ(CoSTA)のHAMに対する新しいアプローチを導入し、正当化し、実証する。
論文 参考訳(メタデータ) (2021-05-24T20:17:13Z) - What Are Bayesian Neural Network Posteriors Really Like? [63.950151520585024]
ハミルトニアンモンテカルロは、標準およびディープアンサンブルよりも大きな性能向上を達成できることを示す。
また,深部分布は標準SGLDとHMCに類似しており,標準変動推論に近いことが示された。
論文 参考訳(メタデータ) (2021-04-29T15:38:46Z) - Quaternion Factorization Machines: A Lightweight Solution to Intricate
Feature Interaction Modelling [76.89779231460193]
factorization machine(fm)は、機能間の高次インタラクションを自動的に学習し、手動の機能エンジニアリングを必要とせずに予測を行うことができる。
本研究では,スパース予測解析のためのQFM(Quaternion factorization Machine)とQNFM(Quaternion neural factorization Machine)を提案する。
論文 参考訳(メタデータ) (2021-04-05T00:02:36Z) - Cauchy-Schwarz Regularized Autoencoder [68.80569889599434]
変分オートエンコーダ(VAE)は、強力で広く使われている生成モデルのクラスである。
GMMに対して解析的に計算できるCauchy-Schwarz分散に基づく新しい制約対象を導入する。
本研究の目的は,密度推定,教師なしクラスタリング,半教師なし学習,顔分析における変分自動エンコーディングモデルの改善である。
論文 参考訳(メタデータ) (2021-01-06T17:36:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。