論文の概要: Decomposition of one-layer neural networks via the infinite sum of reproducing kernel Banach spaces
- arxiv url: http://arxiv.org/abs/2409.18132v1
- Date: Fri, 9 Aug 2024 09:10:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 15:51:02.745511
- Title: Decomposition of one-layer neural networks via the infinite sum of reproducing kernel Banach spaces
- Title(参考訳): 再生カーネルバナッハ空間の無限和による一層ニューラルネットワークの分解
- Authors: Seungcheol Shin, Myungjoo Kang,
- Abstract要約: RKBSsの和は特徴空間の直和と互換性があることが示される。
積分 RKBS を$p$-norm RKBSs の和に分解する。
- 参考スコア(独自算出の注目度): 5.990685716102089
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we define the sum of RKBSs using the characterization theorem of RKBSs and show that the sum of RKBSs is compatible with the direct sum of feature spaces. Moreover, we decompose the integral RKBS into the sum of $p$-norm RKBSs. Finally, we provide applications for the structural understanding of the integral RKBS class.
- Abstract(参考訳): 本稿では、RKBS の評価定理を用いて、RKBS の和を定義し、RKBS の和が特徴空間の直和と一致することを示す。
さらに、積分 RKBS を$p$-norm RKBS の和に分解する。
最後に、積分RKBSクラスの構造的理解のためのアプリケーションを提供する。
関連論文リスト
- Generalization of Scaled Deep ResNets in the Mean-Field Regime [55.77054255101667]
無限深度および広帯域ニューラルネットワークの限界におけるエンスケールResNetについて検討する。
この結果から,遅延学習体制を超えた深層ResNetの一般化能力に関する新たな知見が得られた。
論文 参考訳(メタデータ) (2024-03-14T21:48:00Z) - Generalization of Balian-Brezin decomposition for exponentials with linear fermionic part [0.0]
我々は、ガウス作用素を線型成分に組み込むために、バリアンとブレジンの研究を拡張した。
また、線形項を含むシナリオを包含するようにウィックの定理を拡張する。
論文 参考訳(メタデータ) (2023-06-23T12:39:16Z) - Generalization Ability of Wide Residual Networks [5.699259766376014]
本稿では,ReLU アクティベーション関数を持つ $mathbbSd-1$ 上での広域残差ネットワークの一般化能力について検討する。
幅$mrightarrowinfty$のように、残余ネットワークカーネルは、残余ニューラルネットワークカーネル(RNTK)に均一に収束することを示す。
論文 参考訳(メタデータ) (2023-05-29T15:01:13Z) - Sparse Representer Theorems for Learning in Reproducing Kernel Banach
Spaces [7.695772976072261]
学習ソリューションのスパシティは、機械学習において望ましい機能である。
ある再生カーネルバナッハ空間(RKBS)はスパース学習法に適した仮説空間である。
論文 参考訳(メタデータ) (2023-05-21T22:36:32Z) - Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - Duality for Neural Networks through Reproducing Kernel Banach Spaces [1.3750624267664155]
再生カーネルバナッハ空間 (RKBS) は RKHS 空間の無限結合として理解可能であることを示す。
RKBS はヒルベルト空間ではないため、独自の双対空間ではない。しかし、その双対空間は再び、データとパラメータの役割が交換される RKBS であることを示す。
これにより、ニューラルネットワークのサドル点問題を構築することができ、原始双対最適化の全分野で使用できる。
論文 参考訳(メタデータ) (2022-11-09T16:52:39Z) - Learning an Invertible Output Mapping Can Mitigate Simplicity Bias in
Neural Networks [66.76034024335833]
バックボーンによって多様・複雑な特徴が学習される理由を考察し、その脆さは、主に最も単純な特徴に依存する線形分類ヘッドによるものである。
本稿では,学習した特徴がログから復元可能であることを保証するために,特徴再構成正則化器(FRR)を提案する。
我々は、最近導入された極端分布シフトを持つ半合成データセットにおいて、OOD精度が最大15%向上することを示した。
論文 参考訳(メタデータ) (2022-10-04T04:01:15Z) - Robust Estimation for Nonparametric Families via Generative Adversarial
Networks [92.64483100338724]
我々は,高次元ロバストな統計問題を解くためにGAN(Generative Adversarial Networks)を設計するためのフレームワークを提供する。
我々の研究は、これらをロバスト平均推定、第二モーメント推定、ロバスト線形回帰に拡張する。
技術面では、提案したGAN損失は、スムーズで一般化されたコルモゴロフ-スミルノフ距離と見なすことができる。
論文 参考訳(メタデータ) (2022-02-02T20:11:33Z) - A unified view of likelihood ratio and reparameterization gradients [91.4645013545015]
我々は、LRとRPが確率質量の運動を追跡する代替方法であることを示すために、第一原理のアプローチを用いる。
LRとRPを組み合わせた全ての可能な推定器の空間は、流れ場によって完全にパラメータ化可能であることを示す。
したがって、より優れたモンテカルロ勾配推定器をどこに探すべきかを明確にする。
論文 参考訳(メタデータ) (2021-05-31T11:53:08Z) - Exact Recovery in the General Hypergraph Stochastic Block Model [92.28929858529679]
本稿では,d-uniform hypergraph block model(d-HSBM)の正確な回復の基本的な限界について検討する。
精度の高いしきい値が存在し、正確な回復がしきい値の上に達成でき、その下には不可能であることを示す。
論文 参考訳(メタデータ) (2021-05-11T03:39:08Z) - Harmonic Decompositions of Convolutional Networks [16.688727673221297]
畳み込みネットワークに関連する写像は,球面調和に類似した基本関数を含む和へと拡大することを示す。
この機能的分解は、非パラメトリック統計学における機能的ANOVA分解と関連付けられる。
論文 参考訳(メタデータ) (2020-03-28T09:41:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。