論文の概要: Estimation error analysis of deep learning on the regression problem on
the variable exponent Besov space
- arxiv url: http://arxiv.org/abs/2009.11285v6
- Date: Wed, 31 Mar 2021 13:24:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 15:35:18.988111
- Title: Estimation error analysis of deep learning on the regression problem on
the variable exponent Besov space
- Title(参考訳): 可変指数ベソフ空間上の回帰問題におけるディープラーニングの推定誤差解析
- Authors: Kazuma Tsuji and Taiji Suzuki
- Abstract要約: 可変指数ベソフ空間の一般近似誤差とディープラーニングの近似と推定誤差を解析する。
適応性に基づく改善は, 対象関数の滑らかさが小さい領域が小さく, 寸法が大きい場合に顕著である。
- 参考スコア(独自算出の注目度): 50.83356836818667
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning has achieved notable success in various fields, including image
and speech recognition. One of the factors in the successful performance of
deep learning is its high feature extraction ability. In this study, we focus
on the adaptivity of deep learning; consequently, we treat the variable
exponent Besov space, which has a different smoothness depending on the input
location $x$. In other words, the difficulty of the estimation is not uniform
within the domain. We analyze the general approximation error of the variable
exponent Besov space and the approximation and estimation errors of deep
learning. We note that the improvement based on adaptivity is remarkable when
the region upon which the target function has less smoothness is small and the
dimension is large. Moreover, the superiority to linear estimators is shown
with respect to the convergence rate of the estimation error.
- Abstract(参考訳): 深層学習は画像や音声認識など様々な分野で顕著な成功を収めてきた。
ディープラーニングが成功した要因の1つは、その高機能抽出能力である。
本研究では,深層学習の適応性に着目し,入力位置によって異なる平滑性を持つ可変指数ベゾフ空間をx$で扱う。
言い換えれば、見積もりの難しさはドメイン内では一様ではありません。
本研究では,可変指数ベゾフ空間の一般近似誤差とディープラーニングの近似・推定誤差を解析した。
適応性に基づく改善は, 対象関数の滑らかさが小さい領域が小さく, 寸法が大きい場合に顕著である。
さらに, 推定誤差の収束率に関して, 線形推定器に対する優位性を示す。
関連論文リスト
- Alpha-VI DeepONet: A prior-robust variational Bayesian approach for enhancing DeepONets with uncertainty quantification [0.0]
一般化変分推論(GVI)を組み込んだ新しいディープオペレータネットワーク(DeepONet)を提案する。
分岐ネットワークとトランクネットワークのビルディングブロックとしてベイズニューラルネットワークを組み込むことで,不確実な定量化が可能なDeepONetを実現する。
変動目的関数の修正は平均二乗誤差を最小化する点で優れた結果をもたらすことを示す。
論文 参考訳(メタデータ) (2024-08-01T16:22:03Z) - Understanding Augmentation-based Self-Supervised Representation Learning
via RKHS Approximation and Regression [53.15502562048627]
最近の研究は、自己教師付き学習とグラフラプラシアン作用素のトップ固有空間の近似との関係を構築している。
この研究は、増強に基づく事前訓練の統計的分析に発展する。
論文 参考訳(メタデータ) (2023-06-01T15:18:55Z) - Reinforcement Learning with Function Approximation: From Linear to
Nonlinear [4.314956204483073]
本稿では,線形あるいは非線形近似設定における強化学習アルゴリズムの誤差解析に関する最近の結果についてレビューする。
近似誤差に関する諸特性について考察し、遷移確率と報酬関数に関する具体的条件について述べる。
論文 参考訳(メタデータ) (2023-02-20T00:31:18Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - Instance-optimality in optimal value estimation: Adaptivity via
variance-reduced Q-learning [99.34907092347733]
本稿では,マルコフ決定過程における最適な$Q$値関数を離散状態と動作で推定する問題を解析する。
局所的なミニマックスフレームワークを用いて、この関数は任意の推定手順の精度の低い境界に現れることを示す。
他方,Q$ラーニングの分散還元版を解析することにより,状態と行動空間の対数的要因まで,下位境界のシャープさを確立する。
論文 参考訳(メタデータ) (2021-06-28T00:38:54Z) - Regressive Domain Adaptation for Unsupervised Keypoint Detection [67.2950306888855]
ドメイン適応(DA)は、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送することを目的とする。
本稿では,教師なしキーポイント検出のためのレグレッシブドメイン適応(RegDA)法を提案する。
提案手法は,異なるデータセット上のPCKにおいて,8%から11%の大幅な改善をもたらす。
論文 参考訳(メタデータ) (2021-03-10T16:45:22Z) - Fundamental Limits and Tradeoffs in Invariant Representation Learning [99.2368462915979]
多くの機械学習アプリケーションは、2つの競合する目標を達成する表現を学習する。
ミニマックスゲーム理論の定式化は、精度と不変性の基本的なトレードオフを表す。
分類と回帰の双方において,この一般的かつ重要な問題を情報論的に解析する。
論文 参考訳(メタデータ) (2020-12-19T15:24:04Z) - Amortized Variational Deep Q Network [28.12600565839504]
本稿では,ディープQネットワークにおける動作値関数の後方分布を近似する補正型変分推論フレームワークを提案する。
このアモータイズされたフレームワークは,既存の最先端手法よりも学習パラメータがかなり少ないことを示す。
論文 参考訳(メタデータ) (2020-11-03T13:48:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。