論文の概要: Universal Regular Conditional Distributions via Probability
Measure-Valued Deep Neural Models
- arxiv url: http://arxiv.org/abs/2105.07743v1
- Date: Mon, 17 May 2021 11:34:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-18 14:54:55.274284
- Title: Universal Regular Conditional Distributions via Probability
Measure-Valued Deep Neural Models
- Title(参考訳): 確率測定値深部ニューラルモデルによる普遍正規条件分布
- Authors: Anastasis Kratsios
- Abstract要約: 提案したフレームワークを用いて構築されたモデルはすべて、$C(mathcalX,mathcalP_1(mathcalY))$で密集している。
提案モデルはまた、ほとんどのランダム化された機械学習モデルに存在するアレラトリック不確かさを汎用的に表現できることも示している。
- 参考スコア(独自算出の注目度): 3.8073142980733
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces a general framework for explicitly constructing
universal deep neural models with inputs from a complete, separable, and
locally-compact metric space $\mathcal{X}$ and outputs in the Wasserstein-1
$\mathcal{P}_1(\mathcal{Y})$ space over a complete and separable metric space
$\mathcal{Y}$. We find that any model built using the proposed framework is
dense in the space $C(\mathcal{X},\mathcal{P}_1(\mathcal{Y}))$ of continuous
functions from $\mathcal{X}$ to $\mathcal{P}_1(\mathcal{Y})$ in the
corresponding uniform convergence on compacts topology, quantitatively. We
identify two methods in which the curse of dimensionality can be broken. The
first approach constructs subsets of
$C(\mathcal{X},\mathcal{P}_1(\mathcal{Y}))$ consisting of functions that can be
efficiently approximated. In the second approach, given any fixed $f \in
C(\mathcal{X},\mathcal{P}_1(\mathcal{Y}))$, we build non-trivial subsets of
$\mathcal{X}$ on which $f$ can be efficiently approximated. The results are
applied to three open problems lying at the interface of applied probability
and computational learning theory. We find that the proposed models can
approximate any regular conditional distribution of a $\mathcal{Y}$-valued
random element $Y$ depending on an $\mathcal{X}$-valued random element $X$,
with arbitrarily high probability. The proposed models are also shown to be
capable of generically expressing the aleatoric uncertainty present in most
randomized machine learning models. The proposed framework is used to derive an
affirmative answer to the open conjecture of Bishop (1994); namely: mixture
density networks are generic regular conditional distributions. Numerical
experiments are performed in the contexts of extreme learning machines,
randomized DNNs, and heteroscedastic regression.
- Abstract(参考訳): 本稿では,完全かつ分離可能な距離空間$\mathcal{X}$とWasserstein-1 $\mathcal{P}_1(\mathcal{Y})$空間における出力を,完全かつ分離可能な距離空間$\mathcal{Y}$から入力して,普遍的な深部ニューラルネットワークを明示的に構築するための一般的な枠組みを紹介する。
提案したフレームワークを用いて構築された任意のモデルは、コンパクト位相上の一様収束において、量的に、対応する一様収束において、$\mathcal{x}$ から$\mathcal{p}_1(\mathcal{y})$ までの連続関数の空間 $c(\mathcal{x},\mathcal{p}_1(\mathcal{y})$ において密である。
我々は次元の呪いを破る2つの方法を特定する。
最初のアプローチは、効率的に近似できる関数からなる$c(\mathcal{x},\mathcal{p}_1(\mathcal{y}))$の部分集合を構成する。
2つ目のアプローチでは、任意の固定された$f \in c(\mathcal{x},\mathcal{p}_1(\mathcal{y}))$ に対して、$f$ を効率的に近似できる$\mathcal{x}$ の非自明な部分集合を構築する。
この結果は、応用確率と計算学習理論の界面にある3つの開問題に適用される。
提案したモデルは、任意の条件分布を$\mathcal{Y}$-valued random element $Y$と、$\mathcal{X}$-valued random element $X$と、任意に高い確率で近似することができる。
提案モデルはまた、ほとんどのランダム化された機械学習モデルに存在するアレラトリック不確かさを汎用的に表現できることを示した。
提案された枠組みは、ビショップのオープン予想(1994年)に対する肯定的な答え、すなわち:混合密度ネットワークは一般的な正規条件分布である。
数値実験は、極端な学習機械、ランダム化されたDNN、異方性回帰の文脈で実施される。
関連論文リスト
- A Theory of Interpretable Approximations [61.90216959710842]
我々は、ある基底クラス $mathcalH$ の概念の小さな集合によってターゲット概念 $c$ を近似するという考え方を研究する。
任意の$mathcalH$と$c$のペアに対して、これらのケースのちょうど1つが成り立つ: (i) $c$を任意の精度で$mathcalH$で近似することはできない。
解釈可能な近似の場合、近似の複雑さに関するわずかに非自明なa-priori保証でさえ、定数(分布自由かつ精度)の近似を意味することを示す。
論文 参考訳(メタデータ) (2024-06-15T06:43:45Z) - A Unified Framework for Uniform Signal Recovery in Nonlinear Generative
Compressed Sensing [68.80803866919123]
非線形測定では、ほとんどの先行結果は一様ではない、すなわち、すべての$mathbfx*$に対してではなく、固定された$mathbfx*$に対して高い確率で保持される。
本フレームワークはGCSに1ビット/一様量子化観測と単一インデックスモデルを標準例として適用する。
また、指標集合が計量エントロピーが低い製品プロセスに対して、より厳密な境界を生み出す濃度不等式も開発する。
論文 参考訳(メタデータ) (2023-09-25T17:54:19Z) - An Approximation Theory for Metric Space-Valued Functions With A View
Towards Deep Learning [25.25903127886586]
任意のポーランド計量空間 $mathcalX$ と $mathcalY$ の間の連続写像の普遍函数近似器を構築する。
特に、必要なディラック測度数は $mathcalX$ と $mathcalY$ の構造によって決定されることを示す。
論文 参考訳(メタデータ) (2023-04-24T16:18:22Z) - On the Multidimensional Random Subset Sum Problem [0.9007371440329465]
確率変数 $X_1, ..., X_n$ が与えられたランダム部分集合 Sum 問題では、任意の点 $z in [-1,1]$ を部分集合 $X_i_1(z), ..., X_i_s(z)$ の和として近似したい。
我々は、$d$次元において、$n = O(d3log frac 1varepsilon cdot
論文 参考訳(メタデータ) (2022-07-28T08:10:43Z) - Learning a Single Neuron with Adversarial Label Noise via Gradient
Descent [50.659479930171585]
モノトン活性化に対する $mathbfxmapstosigma(mathbfwcdotmathbfx)$ の関数について検討する。
学習者の目標は仮説ベクトル $mathbfw$ that $F(mathbbw)=C, epsilon$ を高い確率で出力することである。
論文 参考訳(メタデータ) (2022-06-17T17:55:43Z) - Metric Hypertransformers are Universal Adapted Maps [4.83420384410068]
メートル法ハイパートランスフォーマー(MHT)は、任意の適応マップを近似可能な複雑性で、$F:mathscrXmathbbZrightarrow数学scrYmathbbZ$を近似することができる。
我々の結果は、そのような$mathscrX$ および $mathscrY$ と互換性のある最初の(近似的な)普遍近似定理を提供する。
論文 参考訳(メタデータ) (2022-01-31T10:03:46Z) - Random matrices in service of ML footprint: ternary random features with
no performance loss [55.30329197651178]
我々は、$bf K$ の固有スペクトルが$bf w$ の i.d. 成分の分布とは独立であることを示す。
3次ランダム特徴(TRF)と呼ばれる新しいランダム手法を提案する。
提案したランダムな特徴の計算には乗算が不要であり、古典的なランダムな特徴に比べてストレージに$b$のコストがかかる。
論文 参考訳(メタデータ) (2021-10-05T09:33:49Z) - Model Selection with Near Optimal Rates for Reinforcement Learning with
General Model Classes [27.361399036211694]
有限地平線エピソディック強化学習(RL)問題に対するモデル選択の問題に対処する。
モデル選択フレームワークでは、$mathcalP*$の代わりに、遷移カーネルのネストされたファミリーが$M$を与えられる。
textttARL-GENが$TildemathcalO(d_mathcalE* H2+sqrtd_mathcalE* mathbbM* H2T)$の後悔を得ることを示す。
論文 参考訳(メタデータ) (2021-07-13T05:00:38Z) - Convergence of Sparse Variational Inference in Gaussian Processes
Regression [29.636483122130027]
計算コストが$mathcalO(log N)2D(log N)2)$の手法を推論に利用できることを示す。
論文 参考訳(メタデータ) (2020-08-01T19:23:34Z) - Linear Time Sinkhorn Divergences using Positive Features [51.50788603386766]
エントロピー正則化で最適な輸送を解くには、ベクトルに繰り返し適用される$ntimes n$ kernel matrixを計算する必要がある。
代わりに、$c(x,y)=-logdotpvarphi(x)varphi(y)$ ここで$varphi$は、地上空間から正のorthant $RRr_+$への写像であり、$rll n$である。
論文 参考訳(メタデータ) (2020-06-12T10:21:40Z) - Agnostic Learning of a Single Neuron with Gradient Descent [92.7662890047311]
期待される正方形損失から、最も適合した単一ニューロンを学習することの問題点を考察する。
ReLUアクティベーションでは、我々の人口リスク保証は$O(mathsfOPT1/2)+epsilon$である。
ReLUアクティベーションでは、我々の人口リスク保証は$O(mathsfOPT1/2)+epsilon$である。
論文 参考訳(メタデータ) (2020-05-29T07:20:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。