論文の概要: Analysis of Regularized Learning for Linear-functional Data in Banach
Spaces
- arxiv url: http://arxiv.org/abs/2109.03159v6
- Date: Tue, 8 Aug 2023 02:52:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-09 18:02:47.703032
- Title: Analysis of Regularized Learning for Linear-functional Data in Banach
Spaces
- Title(参考訳): バナッハ空間における線形関数データの正規化学習の解析
- Authors: Qi Ye
- Abstract要約: バナッハ空間における線形汎関数データに対する正規化学習の全体理論について検討する。
バナッハ空間の弱*位相による正確な解への近似解の収束を示す。
正規化学習の定理は、機械学習の多くの問題を解決するために適用される。
- 参考スコア(独自算出の注目度): 3.160070867400839
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: In this article, we study the whole theory of regularized learning for
linear-functional data in Banach spaces including representer theorems,
pseudo-approximation theorems, and convergence theorems. The input training
data are composed of linear functionals in the predual space of the Banach
space to represent the discrete local information of multimodel data and
multiscale models. The training data and the multi-loss functions are used to
compute the empirical risks to approximate the expected risks, and the
regularized learning is to minimize the regularized empirical risks over the
Banach spaces. The exact solutions of the original problems are approximated
globally by the regularized learning even if the original problems are unknown
or unformulated. In the convergence theorems, we show the convergence of the
approximate solutions to the exact solutions by the weak* topology of the
Banach space. Moreover, the theorems of the regularized learning are applied to
solve many problems of machine learning such as support vector machines and
artificial neural networks.
- Abstract(参考訳): 本稿では, 表現定理, 擬近似定理, 収束定理を含むバナッハ空間における線形汎関数データに対する正規化学習の全体論を考察する。
入力トレーニングデータは、マルチモデルデータとマルチスケールモデルの離散局所情報を表現するために、バナッハ空間の先行空間における線形関数からなる。
トレーニングデータとマルチロス関数は、期待されるリスクを近似するために経験的リスクを計算するために使用され、正規化学習はバナッハ空間上の正規化された経験的リスクを最小化する。
元の問題の厳密な解は、たとえ元の問題が未知あるいは未定であっても、正規化学習によって世界規模で近似される。
収束定理では、バナッハ空間の弱*位相による正確な解への近似解の収束を示す。
さらに、正規化学習の定理を適用して、サポートベクトルマシンや人工ニューラルネットワークといった機械学習の多くの問題を解決する。
関連論文リスト
- Hypothesis Spaces for Deep Learning [7.695772976072261]
本稿では,ディープニューラルネットワーク(DNN)を用いた深層学習のための仮説空間を提案する。
DNNを2つの変数の関数として扱うことにより、DNNの所定の深さと幅によって決定される重み行列とバイアスのセットに位置するパラメータ変数に対するDNNの原始集合を考える。
このように構成されたバナッハ空間は、バナッハ空間(RKBS)を再現したカーネルであり、その再現されたカーネルを構築することを証明する。
論文 参考訳(メタデータ) (2024-03-05T22:42:29Z) - Modify Training Directions in Function Space to Reduce Generalization
Error [9.821059922409091]
本稿では,ニューラルネットワーク関数空間におけるニューラルタンジェントカーネルとフィッシャー情報行列の固有分解に基づく自然勾配降下法を提案する。
固有分解と統計理論から理論的手法を用いて学習したニューラルネットワーク関数の一般化誤差を明示的に導出する。
論文 参考訳(メタデータ) (2023-07-25T07:11:30Z) - Learning Linear Causal Representations from Interventions under General
Nonlinear Mixing [52.66151568785088]
介入対象にアクセスできることなく、未知の単一ノード介入を考慮し、強い識別可能性を示す。
これは、ディープニューラルネットワークの埋め込みに対する非ペアの介入による因果識別性の最初の例である。
論文 参考訳(メタデータ) (2023-06-04T02:32:12Z) - Sparse Representer Theorems for Learning in Reproducing Kernel Banach
Spaces [7.695772976072261]
学習ソリューションのスパシティは、機械学習において望ましい機能である。
ある再生カーネルバナッハ空間(RKBS)はスパース学習法に適した仮説空間である。
論文 参考訳(メタデータ) (2023-05-21T22:36:32Z) - The No Free Lunch Theorem, Kolmogorov Complexity, and the Role of Inductive Biases in Machine Learning [80.1018596899899]
ニューラルネットワークモデルは、Kolmogorov複雑性を使って形式化された、同じ好みを共有している、と我々は主張する。
実験の結果、事前訓練された言語モデルでも、低複雑さのシーケンスを生成するのが好まれることがわかった。
これらの観察は、ますます小さな機械学習モデルで異なるように見える問題を統一する深層学習の傾向を正当化する。
論文 参考訳(メタデータ) (2023-04-11T17:22:22Z) - On the existence of global minima and convergence analyses for gradient
descent methods in the training of deep neural networks [3.198144010381572]
フィードフォワード深層ReLU ANNを任意に多数の隠蔽層で研究する。
我々は,そのようなANNの訓練において,ランダムなGD最適化手法のリスクを収束させることを証明した。
また、勾配流微分方程式の解も研究する。
論文 参考訳(メタデータ) (2021-12-17T18:55:40Z) - Partial Counterfactual Identification from Observational and
Experimental Data [83.798237968683]
観測データと実験データの任意の組み合わせから最適境界を近似する有効なモンテカルロアルゴリズムを開発した。
我々のアルゴリズムは、合成および実世界のデータセットに基づいて広範囲に検証されている。
論文 参考訳(メタデータ) (2021-10-12T02:21:30Z) - Optimal oracle inequalities for solving projected fixed-point equations [53.31620399640334]
ヒルベルト空間の既知の低次元部分空間を探索することにより、確率観測の集合を用いて近似解を計算する手法を検討する。
本稿では,線形関数近似を用いた政策評価問題に対する時間差分学習手法の誤差を正確に評価する方法について述べる。
論文 参考訳(メタデータ) (2020-12-09T20:19:32Z) - General stochastic separation theorems with optimal bounds [68.8204255655161]
分離性の現象が明らかになり、機械学習で人工知能(AI)システムのエラーを修正し、AI不安定性を分析するために使用された。
エラーやエラーのクラスタは、残りのデータから分離することができる。
AIシステムを修正する能力は、それに対する攻撃の可能性も開き、高次元性は、同じ分離性によって引き起こされる脆弱性を誘発する。
論文 参考訳(メタデータ) (2020-10-11T13:12:41Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - Generalisation error in learning with random features and the hidden
manifold model [23.71637173968353]
合成データセットの一般線形回帰と分類について検討した。
我々は,高次元構造を考察し,統計物理学からのレプリカ法を用いる。
閾値をピークとしたロジスティック回帰のためのいわゆる二重降下挙動を得る方法を示す。
隠れ多様体モデルにより生成されたデータにおいて相関関係が果たす役割について論じる。
論文 参考訳(メタデータ) (2020-02-21T14:49:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。