論文の概要: Generative Learning of Continuous Data by Tensor Networks
- arxiv url: http://arxiv.org/abs/2310.20498v1
- Date: Tue, 31 Oct 2023 14:37:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 14:44:01.218413
- Title: Generative Learning of Continuous Data by Tensor Networks
- Title(参考訳): テンソルネットワークによる連続データの生成学習
- Authors: Alex Meiburg, Jing Chen, Jacob Miller, Rapha\"elle Tihon, Guillaume
Rabusseau and Alejandro Perdomo-Ortiz
- Abstract要約: 本稿では,連続データのためのテンソルネットワーク生成モデルについて紹介する。
我々は、このモデルの性能を、いくつかの合成および実世界のデータセットでベンチマークする。
本手法は, 急速に成長する生成学習分野において, 量子インスピレーション法の有効性を示す重要な理論的, 実証的な証拠を与える。
- 参考スコア(独自算出の注目度): 47.77281294161002
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Beyond their origin in modeling many-body quantum systems, tensor networks
have emerged as a promising class of models for solving machine learning
problems, notably in unsupervised generative learning. While possessing many
desirable features arising from their quantum-inspired nature, tensor network
generative models have previously been largely restricted to binary or
categorical data, limiting their utility in real-world modeling problems. We
overcome this by introducing a new family of tensor network generative models
for continuous data, which are capable of learning from distributions
containing continuous random variables. We develop our method in the setting of
matrix product states, first deriving a universal expressivity theorem proving
the ability of this model family to approximate any reasonably smooth
probability density function with arbitrary precision. We then benchmark the
performance of this model on several synthetic and real-world datasets, finding
that the model learns and generalizes well on distributions of continuous and
discrete variables. We develop methods for modeling different data domains, and
introduce a trainable compression layer which is found to increase model
performance given limited memory or computational resources. Overall, our
methods give important theoretical and empirical evidence of the efficacy of
quantum-inspired methods for the rapidly growing field of generative learning.
- Abstract(参考訳): 多体量子システムのモデリングの原点を超えて、テンソルネットワークは、特に教師なし生成学習において、機械学習問題を解決するための有望なモデルのクラスとして現れてきた。
量子インスパイアされた性質から生じる多くの望ましい特徴を持っているが、テンソルネットワーク生成モデルは、以前はバイナリデータやカテゴリデータに限られており、実世界のモデリング問題における有用性は限られていた。
連続確率変数を含む分布から学習可能な連続データのためのテンソルネットワーク生成モデルの新たなファミリを導入することでこれを克服する。
本手法は行列積状態の設定において,まずモデルファミリーが任意の精度で合理的に滑らかな確率密度関数を近似できることを示す普遍表現性定理を導出する。
次に、このモデルの性能をいくつかの合成および実世界のデータセットでベンチマークし、連続および離散変数の分布についてモデルを学習し、一般化することを発見した。
本稿では,異なるデータ領域をモデル化する手法を開発し,メモリや計算資源の制限によりモデル性能を向上させるための学習可能な圧縮層を提案する。
全体として、本手法は、急速に成長する生成学習分野に対する量子インスピレーション法の有効性に関する重要な理論的および実証的な証拠を与える。
関連論文リスト
- Demolition and Reinforcement of Memories in Spin-Glass-like Neural
Networks [0.0]
この論文の目的は、連想記憶モデルと生成モデルの両方において、アンラーニングの有効性を理解することである。
構造化データの選択により、連想記憶モデルは、相当量のアトラクションを持つニューラルダイナミクスのアトラクションとしての概念を検索することができる。
Boltzmann Machinesの新しい正規化手法が提案され、データセットから隠れ確率分布を学習する以前に開発された手法より優れていることが証明された。
論文 参考訳(メタデータ) (2024-03-04T23:12:42Z) - Quantum Generative Modeling of Sequential Data with Trainable Token
Embedding [0.0]
ボルンマシンとして知られる量子インスパイアされた生成モデルは、古典的および量子的データの学習において大きな進歩を見せている。
本稿では,MPSを同時に使用可能なトレーニング可能な量子計測演算子への埋め込み法を一般化する。
私たちの研究は、トレーニング可能な埋め込みと組み合わせることで、Bornマシンはより良いパフォーマンスを示し、データセットからより深い相関関係を学習できることを示した。
論文 参考訳(メタデータ) (2023-11-08T22:56:37Z) - Learning to Jump: Thinning and Thickening Latent Counts for Generative
Modeling [69.60713300418467]
ジャンプの学習は、様々な種類のデータの生成モデリングのための一般的なレシピである。
ジャンプの学習が、デノゼの学習と相容れないパフォーマンスを期待される場合と、より良いパフォーマンスを期待される場合を実証する。
論文 参考訳(メタデータ) (2023-05-28T05:38:28Z) - On the Generalization and Adaption Performance of Causal Models [99.64022680811281]
異なる因果発見は、データ生成プロセスを一連のモジュールに分解するために提案されている。
このようなモジュラニューラル因果モデルの一般化と適応性能について検討する。
我々の分析では、モジュラーニューラル因果モデルが、低データレギュレーションにおけるゼロおよび少数ショットの適応において、他のモデルよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-06-09T17:12:32Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - A Framework for Machine Learning of Model Error in Dynamical Systems [7.384376731453594]
データから動的システムを特定するために,機械的アプローチと機械学習アプローチを混在させる統一フレームワークを提案する。
モデルエラーがメモリレスであり、大きなメモリを持つ問題に対して、連続時間と離散時間の両方で問題を提起した。
ハイブリッド手法は、データ飢餓、モデルの複雑さの要求、全体的な予測性能において、データ駆動アプローチよりも大幅に優れています。
論文 参考訳(メタデータ) (2021-07-14T12:47:48Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - Tensor networks for unsupervised machine learning [9.897828174118974]
本稿では,量子多体物理学の行列状態と機械学習の自己回帰モデルを組み合わせたテンソルネットワークモデルであるAutoregressive Matrix Product States(AMPS)を提案する。
提案手法は,既存のテンソルネットワークモデルや制限されたボルツマンマシンよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-06-24T12:51:00Z) - Sparse Flows: Pruning Continuous-depth Models [107.98191032466544]
生成モデルにおいて,プルーニングによりニューラルネットワークの一般化が向上することを示す。
また、プルーニングは、元のネットワークに比べて最大98%少ないパラメータで、精度を損なうことなく、最小かつ効率的なニューラルODE表現を見出すことを示した。
論文 参考訳(メタデータ) (2021-06-24T01:40:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。