論文の概要: Extending Universal Approximation Guarantees: A Theoretical
Justification for the Continuity of Real-World Learning Tasks
- arxiv url: http://arxiv.org/abs/2212.07934v1
- Date: Tue, 6 Dec 2022 23:33:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 18:51:26.162928
- Title: Extending Universal Approximation Guarantees: A Theoretical
Justification for the Continuity of Real-World Learning Tasks
- Title(参考訳): 普遍近似保証の拡張:実世界の学習課題の連続性に関する理論的正当化
- Authors: Naveen Durvasula
- Abstract要約: 条件付き期待値によって与えられる学習タスクを、MathrmEleft[Y mid X = xright]$にマップする。
我々は、ランダム化された安定マッチングの例を用いて、条件のリアリズムを動機づける。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Universal Approximation Theorems establish the density of various classes of
neural network function approximators in $C(K, \mathbb{R}^m)$, where $K \subset
\mathbb{R}^n$ is compact. In this paper, we aim to extend these guarantees by
establishing conditions on learning tasks that guarantee their continuity. We
consider learning tasks given by conditional expectations $x \mapsto
\mathrm{E}\left[Y \mid X = x\right]$, where the learning target $Y = f \circ L$
is a potentially pathological transformation of some underlying data-generating
process $L$. Under a factorization $L = T \circ W$ for the data-generating
process where $T$ is thought of as a deterministic map acting on some random
input $W$, we establish conditions (that might be easily verified using
knowledge of $T$ alone) that guarantee the continuity of practically
\textit{any} derived learning task $x \mapsto \mathrm{E}\left[f \circ L \mid X
= x\right]$. We motivate the realism of our conditions using the example of
randomized stable matching, thus providing a theoretical justification for the
continuity of real-world learning tasks.
- Abstract(参考訳): 普遍近似定理は、ニューラルネットワーク関数近似子の様々なクラスの密度を $c(k, \mathbb{r}^m)$ で定め、ここで $k \subset \mathbb{r}^n$ はコンパクトである。
本稿では,これらの保証を継続性を保証する学習課題の条件を確立することによって拡張することを目的とする。
条件付き期待値$x \mapsto \mathrm{E}\left[Y \mid X = x\right]$で与えられる学習タスクについて検討する。
因数化 $l = t \circ w$ において、$t$ はランダム入力 $w$ に作用する決定論的写像と見なされるデータ生成プロセスにおいて、実際の \textit{any} 派生学習タスク $x \mapsto \mathrm{e}\left[f \circ l \mid x = x\right]$ の連続性を保証する条件($t$ 単独で容易に検証できる)を確立する。
ランダム化された安定マッチングの例を用いて、我々の条件のリアリズムを動機付け、現実の学習タスクの連続性の理論的正当化を提供する。
関連論文リスト
- Guarantees for Nonlinear Representation Learning: Non-identical Covariates, Dependent Data, Fewer Samples [24.45016514352055]
我々は、関数クラス$mathcal F times Mathcal G$から、T+1$関数$f_star(t) circ g_star$を学習する際のサンプル複雑度について研究する。
タスク数が$T$になるにつれて、サンプル要件とリスクバウンドの両方が$r$次元回帰に収束することを示す。
論文 参考訳(メタデータ) (2024-10-15T03:20:19Z) - Adversarial Online Multi-Task Reinforcement Learning [12.421997449847153]
対戦型オンラインマルチタスク強化学習環境について考察する。
K$の各エピソードにおいて、学習者は未知のタスクをM$未知有限ホライゾン MDP モデルの有限集合から与えられる。
学習者の目的は,各課題に対する最適方針に関して,その後悔を一般化することである。
論文 参考訳(メタデータ) (2023-01-11T02:18:26Z) - Multi-Task Imitation Learning for Linear Dynamical Systems [50.124394757116605]
線形システム上での効率的な模倣学習のための表現学習について検討する。
学習対象ポリシーによって生成された軌道上の模倣ギャップは、$tildeOleft(frack n_xHN_mathrmshared + frack n_uN_mathrmtargetright)$で制限されている。
論文 参考訳(メタデータ) (2022-12-01T00:14:35Z) - Learning a Single Neuron with Adversarial Label Noise via Gradient
Descent [50.659479930171585]
モノトン活性化に対する $mathbfxmapstosigma(mathbfwcdotmathbfx)$ の関数について検討する。
学習者の目標は仮説ベクトル $mathbfw$ that $F(mathbbw)=C, epsilon$ を高い確率で出力することである。
論文 参考訳(メタデータ) (2022-06-17T17:55:43Z) - On the Power of Multitask Representation Learning in Linear MDP [61.58929164172968]
本稿では,線形マルコフ決定過程(MDP)におけるマルチタスク表現学習の統計的メリットについて分析する。
簡単な最小二乗アルゴリズムが $tildeO(H2sqrtfrackappa MathcalC(Phi)2 kappa dNT+frackappa dn) というポリシーを学ぶことを証明した。
論文 参考訳(メタデータ) (2021-06-15T11:21:06Z) - Learning a Latent Simplex in Input-Sparsity Time [58.30321592603066]
我々は、$AinmathbbRdtimes n$へのアクセスを考えると、潜入$k$-vertex simplex $KsubsetmathbbRdtimes n$を学習する問題を考える。
実行時間における$k$への依存は、トップ$k$特異値の質量が$a$であるという自然な仮定から不要であることを示す。
論文 参考訳(メタデータ) (2021-05-17T16:40:48Z) - Universal guarantees for decision tree induction via a higher-order
splitting criterion [16.832966312395126]
本アルゴリズムは,全対象関数に対して,一様分布に対して, -1,1n から -1,1$ の証明可能な保証を実現する。
我々の拡張の要点は、その属性の$f$と小さなサブセットの相関を考慮に入れた、新しい分割基準である。
我々のアルゴリズムは以下の保証を満たす: すべての対象関数 $f : -1,1n to -1,1$, sizes $sin mathbbN$, error parameters $epsilon$ に対して、決定を構成する。
論文 参考訳(メタデータ) (2020-10-16T21:20:45Z) - Sample Efficient Reinforcement Learning via Low-Rank Matrix Estimation [30.137884459159107]
連続状態と行動空間を用いた強化学習において,Q$関数を効率よく学習する方法を考える。
我々は、$epsilon$-Schmidt $Q$-functionと$widetildeO(frac1epsilonmax(d1, d_2)+2)$のサンプル複雑性を求める単純な反復学習アルゴリズムを開発する。
論文 参考訳(メタデータ) (2020-06-11T00:55:35Z) - Agnostic Learning of a Single Neuron with Gradient Descent [92.7662890047311]
期待される正方形損失から、最も適合した単一ニューロンを学習することの問題点を考察する。
ReLUアクティベーションでは、我々の人口リスク保証は$O(mathsfOPT1/2)+epsilon$である。
ReLUアクティベーションでは、我々の人口リスク保証は$O(mathsfOPT1/2)+epsilon$である。
論文 参考訳(メタデータ) (2020-05-29T07:20:35Z) - Point Location and Active Learning: Learning Halfspaces Almost Optimally [24.80812483480747]
有限集合 $X の部分集合 mathbbRd$ とバイナリ線型 $c: mathbbRd to 0,1$ が与えられたとき、$c(x)$ という形のクエリは、$X$ のすべての点のラベルを学ぶために何回必要か?
最初のほぼ最適解、深さ$tildeO(dlog(|X|))$のランダム化線形決定木を提供し、以前の$tildeO(dlog(|X))の最高値を改善する。
論文 参考訳(メタデータ) (2020-04-23T18:00:00Z) - Agnostic Q-learning with Function Approximation in Deterministic
Systems: Tight Bounds on Approximation Error and Sample Complexity [94.37110094442136]
本稿では,決定論的システムにおける関数近似を用いたQ$学習の問題について検討する。
もし$delta = Oleft(rho/sqrtdim_Eright)$なら、$Oleft(dim_Eright)$を使って最適なポリシーを見つけることができる。
論文 参考訳(メタデータ) (2020-02-17T18:41:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。