論文の概要: Quantum Kernel Mixtures for Probabilistic Deep Learning
- arxiv url: http://arxiv.org/abs/2305.18204v1
- Date: Fri, 26 May 2023 12:59:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 14:11:39.489373
- Title: Quantum Kernel Mixtures for Probabilistic Deep Learning
- Title(参考訳): 確率的深層学習のための量子カーネル混合
- Authors: Fabio A. Gonz\'alez, Ra\'ul Ramos-Poll\'an, Joseph A. Gallego-Mejia
- Abstract要約: 本稿では,確率的深層学習(PDL)と量子カーネルの混在に対する新しいアプローチを提案する。
このフレームワークは密度推定、推論、サンプリングのための微分可能なモデルの構築を可能にする。
密度推定、識別学習、生成モデリングなど、幅広い機械学習タスクをカバーする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper presents a novel approach to probabilistic deep learning (PDL),
quantum kernel mixtures, derived from the mathematical formalism of quantum
density matrices, which provides a simpler yet effective mechanism for
representing joint probability distributions of both continuous and discrete
random variables. The framework allows for the construction of differentiable
models for density estimation, inference, and sampling, enabling integration
into end-to-end deep neural models. In doing so, we provide a versatile
representation of marginal and joint probability distributions that allows us
to develop a differentiable, compositional, and reversible inference procedure
that covers a wide range of machine learning tasks, including density
estimation, discriminative learning, and generative modeling. We illustrate the
broad applicability of the framework with two examples: an image classification
model, which can be naturally transformed into a conditional generative model
thanks to the reversibility of our inference procedure; and a model for
learning with label proportions, which is a weakly supervised classification
task, demonstrating the framework's ability to deal with uncertainty in the
training samples.
- Abstract(参考訳): 本稿では,連続確率変数と離散確率変数の合同確率分布を表現するための,より単純かつ効果的なメカニズムを提供する量子密度行列の数学的形式から導出した,確率的深層学習(pdl)への新しいアプローチを提案する。
このフレームワークは密度推定、推論、サンプリングのための微分可能なモデルの構築を可能にし、エンドツーエンドのディープニューラルモデルとの統合を可能にする。
そこで本研究では,確率分布と連立確率分布を多義的に表現し,密度推定,識別学習,生成モデルなど,幅広い機械学習タスクをカバーする,微分可能,構成可能,可逆的推論手順を開発する。
本稿では,提案手法の可逆性によって自然に条件付き生成モデルに変換可能な画像分類モデルと,弱い教師付き分類タスクであるラベル比率を用いた学習モデルと,トレーニングサンプルにおける不確実性に対処するフレームワークの能力を示す。
関連論文リスト
- BGDB: Bernoulli-Gaussian Decision Block with Improved Denoising Diffusion Probabilistic Models [8.332734198630813]
生成モデルは、複雑な特徴空間を構築することによって識別的分類器を強化することができる。
本稿では,Bernolli-Gaussian Decision Block (BGDB)を提案する。
具体的には,改良拡散確率モデル(IDDPM)を用いてベルヌーイ裁判の確率をモデル化する。
論文 参考訳(メタデータ) (2024-09-19T22:52:55Z) - Kernel Density Estimation for Multiclass Quantification [52.419589623702336]
量子化は、クラス有病率の正確な予測値を取得することに関する教師付き機械学習タスクである。
分散マッチング(DM)アプローチは、これまでの文献で提案されている定量化手法の中で、最も重要なファミリーの1つである。
カーネル密度推定(KDE)によりモデル化した多変量密度に基づく新しい表現機構を提案する。
論文 参考訳(メタデータ) (2023-12-31T13:19:27Z) - TERM Model: Tensor Ring Mixture Model for Density Estimation [48.622060998018206]
本稿では,密度推定器のテンソルリング分解を行い,置換候補の数を著しく削減する。
適応重み付き複数の置換候補を組み込んだ混合モデルはさらに設計され、表現柔軟性が向上する。
このアプローチは、最適置換以外にも、最適置換が独特な情報を提供できることを認めている。
論文 参考訳(メタデータ) (2023-12-13T11:39:56Z) - Multi-scale Diffusion Denoised Smoothing [79.95360025953931]
ランダムな平滑化は、大規模モデルに敵対的ロバスト性を提供する、いくつかの具体的なアプローチの1つになっている。
本報告では, 分割平滑化におけるロバスト性と精度との現在のトレードオフに対処するスケーラブルな手法を提案する。
提案手法と拡散微細調整を併用したマルチスケール平滑化手法により,高騒音レベルで高い信頼性のロバスト性が得られることを示す。
論文 参考訳(メタデータ) (2023-10-25T17:11:21Z) - HyperSINDy: Deep Generative Modeling of Nonlinear Stochastic Governing
Equations [5.279268784803583]
本稿では,データからのスパース制御方程式の深部生成モデルを用いた動的モデリングフレームワークHyperSINDyを紹介する。
一度訓練すると、HyperSINDyは、係数が白色雑音によって駆動される微分方程式を介して力学を生成する。
実験では、HyperSINDyはデータと一致するように学習度をスケーリングすることで、基底的真理支配方程式を復元する。
論文 参考訳(メタデータ) (2023-10-07T14:41:59Z) - Meta-Learning for Relative Density-Ratio Estimation [59.75321498170363]
相対密度比推定(DRE)の既存の方法は、両方の密度から多くのインスタンスを必要とする。
本稿では,関係データセットの知識を用いて,相対密度比を数例から推定する,相対DREのメタラーニング手法を提案する。
提案手法の有効性を,相対的DRE,データセット比較,外乱検出の3つの問題を用いて実証的に実証した。
論文 参考訳(メタデータ) (2021-07-02T02:13:45Z) - Marginalizable Density Models [14.50261153230204]
本稿では,変数の任意の部分集合の確率,限界,条件に対するクローズドフォーム表現を提供する,新しいディープネットワークアーキテクチャを提案する。
このモデルはまた、変数数に時間複雑性の対数依存しか依存しない並列サンプリングを可能にする。
論文 参考訳(メタデータ) (2021-06-08T23:54:48Z) - Learning with Density Matrices and Random Features [44.98964870180375]
密度行列は、量子系の統計状態を記述する。
量子系の量子的不確実性と古典的不確実性の両方を表現することは強力な形式主義である。
本稿では,機械学習モデルのビルディングブロックとして密度行列をどのように利用できるかを検討する。
論文 参考訳(メタデータ) (2021-02-08T17:54:59Z) - Deep Archimedean Copulas [98.96141706464425]
ACNetは、構造的特性を強制する、新しい差別化可能なニューラルネットワークアーキテクチャである。
我々は、ACNetが共通のアルキメデスコピュラスを近似し、データに適合する可能性のある新しいコプラを生成することができることを示した。
論文 参考訳(メタデータ) (2020-12-05T22:58:37Z) - Variational Mixture of Normalizing Flows [0.0]
生成逆数ネットワークオートサイトGAN、変分オートエンコーダオートサイトベイペーパー、およびそれらの変種などの深い生成モデルは、複雑なデータ分布をモデル化するタスクに広く採用されている。
正規化フローはこの制限を克服し、確率密度関数にそのような公式の変更を利用する。
本研究は,混合モデルのコンポーネントとして正規化フローを用い,そのようなモデルのエンドツーエンドトレーニング手順を考案することによって,この問題を克服する。
論文 参考訳(メタデータ) (2020-09-01T17:20:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。