論文の概要: Local approximation of operators
- arxiv url: http://arxiv.org/abs/2202.06392v1
- Date: Sun, 13 Feb 2022 19:28:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-15 18:21:20.334921
- Title: Local approximation of operators
- Title(参考訳): 作用素の局所近似
- Authors: Hrushikesh Mhaskar
- Abstract要約: 距離空間 $mathfrakX$ と $mathfrakY$ の間の非線形作用素の近似の度合いを決定する問題について検討する。
例えば、$mathbbSd$ の近似に関係する定数は $mathcalO(d1/6)$ である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many applications, such as system identification, classification of time
series, direct and inverse problems in partial differential equations, and
uncertainty quantification lead to the question of approximation of a
non-linear operator between metric spaces $\mathfrak{X}$ and $\mathfrak{Y}$. We
study the problem of determining the degree of approximation of a such
operators on a compact subset $K_\mathfrak{X}\subset \mathfrak{X}$ using a
finite amount of information. If $\mathcal{F}: K_\mathfrak{X}\to
K_\mathfrak{Y}$, a well established strategy to approximate $\mathcal{F}(F)$
for some $F\in K_\mathfrak{X}$ is to encode $F$ (respectively,
$\mathcal{F}(F)$) in terms of a finite number $d$ (repectively $m$) of real
numbers. Together with appropriate reconstruction algorithms (decoders), the
problem reduces to the approximation of $m$ functions on a compact subset of a
high dimensional Euclidean space $\mathbb{R}^d$, equivalently, the unit sphere
$\mathbb{S}^d$ embedded in $\mathbb{R}^{d+1}$. The problem is challenging
because $d$, $m$, as well as the complexity of the approximation on
$\mathbb{S}^d$ are all large, and it is necessary to estimate the accuracy
keeping track of the inter-dependence of all the approximations involved. In
this paper, we establish constructive methods to do this efficiently; i.e.,
with the constants involved in the estimates on the approximation on
$\\mathbb{S}^d$ being $\mathcal{O}(d^{1/6})$. We study different smoothness
classes for the operators, and also propose a method for approximation of
$\mathcal{F}(F)$ using only information in a small neighborhood of $F$,
resulting in an effective reduction in the number of parameters involved. To
further mitigate the problem of large number of parameters, we propose
prefabricated networks, resulting in a substantially smaller number of
effective parameters.
- Abstract(参考訳): 系の同定、時系列の分類、偏微分方程式の直接および逆問題、不確実量化などの多くの応用は、計量空間 $\mathfrak{X}$ と $\mathfrak{Y}$ の間の非線型作用素の近似の問題につながる。
有限な情報量を用いてコンパクト部分集合 $k_\mathfrak{x}\subset \mathfrak{x}$ 上のそのような作用素の近似次数を決定する問題を考察する。
もし$\mathcal{f}: k_\mathfrak{x}\to k_\mathfrak{y}$、ある$f\in k_\mathfrak{x}$に対して$\mathcal{f}(f)$を近似するよく確立された戦略は、実数の有限数 $d$ (repectively $m$) で$f$ (respectively, $\mathcal{f}(f)$) を符号化することである。
適切な再構成アルゴリズム(デコーダ)とともに、問題は高次元ユークリッド空間 $\mathbb{R}^d$ のコンパクト部分集合上の $m$ 関数の近似に還元され、同じ意味で、単位球面 $\mathbb{S}^d$ が $\mathbb{R}^{d+1}$ に埋め込まれる。
問題は、$d$, $m$ と $\mathbb{S}^d$ の近似の複雑さが全て大きいためであり、関連するすべての近似の相互依存性の軌跡を正確に見積もる必要がある。
本稿では,これを効率的に行うための構成的手法,すなわち$\\mathbb{s}^d$ is $\mathcal{o}(d^{1/6})$ の近似に対する推定に関わる定数を定式化する。
演算子に対する異なる滑らか度クラスについて検討し、F$の小さな近傍の情報のみを用いて$\mathcal{F}(F)$を近似する方法を提案する。
多数のパラメーターの問題を緩和するため,プレハブネットワークを提案し,有効パラメーターの数を大幅に減らした。
関連論文リスト
- The Communication Complexity of Approximating Matrix Rank [50.6867896228563]
この問題は通信複雑性のランダム化を$Omega(frac1kcdot n2log|mathbbF|)$とする。
アプリケーションとして、$k$パスを持つ任意のストリーミングアルゴリズムに対して、$Omega(frac1kcdot n2log|mathbbF|)$スペースローバウンドを得る。
論文 参考訳(メタデータ) (2024-10-26T06:21:42Z) - Provably learning a multi-head attention layer [55.2904547651831]
マルチヘッドアテンション層は、従来のフィードフォワードモデルとは分離したトランスフォーマーアーキテクチャの重要な構成要素の1つである。
本研究では,ランダムな例から多面的注意層を実証的に学習する研究を開始する。
最悪の場合、$m$に対する指数的依存は避けられないことを示す。
論文 参考訳(メタデータ) (2024-02-06T15:39:09Z) - Optimal Estimator for Linear Regression with Shuffled Labels [17.99906229036223]
本稿では,シャッフルラベルを用いた線形回帰の課題について考察する。
mathbb Rntimes m の $mathbf Y、mathbb Rntimes p の mathbf Pi、mathbb Rptimes m$ の mathbf B、mathbb Rntimes m$ の $mathbf Win mathbb Rntimes m$ である。
論文 参考訳(メタデータ) (2023-10-02T16:44:47Z) - A Unified Framework for Uniform Signal Recovery in Nonlinear Generative
Compressed Sensing [68.80803866919123]
非線形測定では、ほとんどの先行結果は一様ではない、すなわち、すべての$mathbfx*$に対してではなく、固定された$mathbfx*$に対して高い確率で保持される。
本フレームワークはGCSに1ビット/一様量子化観測と単一インデックスモデルを標準例として適用する。
また、指標集合が計量エントロピーが低い製品プロセスに対して、より厳密な境界を生み出す濃度不等式も開発する。
論文 参考訳(メタデータ) (2023-09-25T17:54:19Z) - Fast $(1+\varepsilon)$-Approximation Algorithms for Binary Matrix
Factorization [54.29685789885059]
本稿では, 2次行列分解(BMF)問題に対する効率的な$(1+varepsilon)$-approximationアルゴリズムを提案する。
目標は、低ランク因子の積として$mathbfA$を近似することである。
我々の手法はBMF問題の他の一般的な変種に一般化する。
論文 参考訳(メタデータ) (2023-06-02T18:55:27Z) - Learning a Single Neuron with Adversarial Label Noise via Gradient
Descent [50.659479930171585]
モノトン活性化に対する $mathbfxmapstosigma(mathbfwcdotmathbfx)$ の関数について検討する。
学習者の目標は仮説ベクトル $mathbfw$ that $F(mathbbw)=C, epsilon$ を高い確率で出力することである。
論文 参考訳(メタデータ) (2022-06-17T17:55:43Z) - Metric Hypertransformers are Universal Adapted Maps [4.83420384410068]
メートル法ハイパートランスフォーマー(MHT)は、任意の適応マップを近似可能な複雑性で、$F:mathscrXmathbbZrightarrow数学scrYmathbbZ$を近似することができる。
我々の結果は、そのような$mathscrX$ および $mathscrY$ と互換性のある最初の(近似的な)普遍近似定理を提供する。
論文 参考訳(メタデータ) (2022-01-31T10:03:46Z) - Beyond Independent Measurements: General Compressed Sensing with GNN
Application [4.924126492174801]
我々は、ノイズコーン観測からmathbbRn$の構造化信号$mathbfxを復元する問題を考察する。
実効的な$mathbfB$は測定値のサロゲートとして用いられる可能性がある。
論文 参考訳(メタデータ) (2021-10-30T20:35:56Z) - A Canonical Transform for Strengthening the Local $L^p$-Type Universal
Approximation Property [4.18804572788063]
任意の機械学習モデルクラス $mathscrFsubseteq C(mathbbRd,mathbbRD)$ が $Lp_mu(mathbbRd,mathbbRD)$ で密であることを保証する。
本稿では、「$mathscrF$'s approximation property」という正準変換を導入することにより、この近似理論問題に対する一般的な解を提案する。
論文 参考訳(メタデータ) (2020-06-24T17:46:35Z) - On Gradient Descent Ascent for Nonconvex-Concave Minimax Problems [86.92205445270427]
非コンミニマックス問題、$min_mathbfx max_mathhidoty f(mathbfdoty)$を効率的に考える。
論文 参考訳(メタデータ) (2019-06-02T03:03:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。