論文の概要: Inducing Riesz and orthonormal bases in $L^2$ via composition operators
- arxiv url: http://arxiv.org/abs/2406.18613v1
- Date: Tue, 25 Jun 2024 17:07:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-28 18:27:13.184303
- Title: Inducing Riesz and orthonormal bases in $L^2$ via composition operators
- Title(参考訳): 合成作用素による$L^2$におけるリースと正規直交基底の誘導
- Authors: Yahya Saleh, Armin Iske,
- Abstract要約: 解析を微分可能写像に制限すると、与えられた形式のすべてのリース基底はバイ・リプシッツ写像によって誘導される。
近似理論におけるこれらの結果の意味を論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate perturbations of orthonormal bases of $L^2$ via a composition operator $C_h$ induced by a mapping $h$. We provide a comprehensive characterization of the mapping $h$ required for the perturbed sequence to form an orthonormal or Riesz basis. Restricting our analysis to differentiable mappings, we reveal that all Riesz bases of the given form are induced by bi-Lipschitz mappings. In addition, we discuss implications of these results for approximation theory, highlighting the potential of using bijective neural networks to construct complete sequences with favorable approximation properties.
- Abstract(参考訳): L^2$ の正規直交基底の摂動を、写像 $h$ によって誘導される合成作用素 $C_h$ を介して調べる。
直交正規あるいはリース基底を形成するために摂動列に必要な写像 $h$ を包括的に特徴づける。
解析を微分可能写像に制限すると、与えられた形式のすべてのリース基底はバイ・リプシッツ写像によって誘導される。
さらに,これらの結果が近似理論にもたらす意味を論じ,より良好な近似特性を持つ完全系列を構成するために,単射ニューラルネットワークを用いることの可能性を強調した。
関連論文リスト
- Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - On a Neural Implementation of Brenier's Polar Factorization [24.48716080522871]
1991年、ブレニエは正方行列の極分解を任意のベクトル場 $F:mathbbRdright mathbbRdarrow に PSD $times$ Unitary として分解する定理を証明した。
本稿では,偏波分解定理の実践的実装を提案し,機械学習における可能性を探る。
論文 参考訳(メタデータ) (2024-03-05T15:59:54Z) - Bayesian Approach to Linear Bayesian Networks [3.8711489380602804]
提案手法は, 部分共分散行列の逆数を用いて, 位相次数の各要素を逆方向と親方向から反復的に推定する。
提案手法は,BHLSM,LISTEN,TDアルゴリズムといった最先端の頻繁な手法より合成データの方が優れていることを示す。
論文 参考訳(メタデータ) (2023-11-27T08:10:53Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - On the Approximation of Bi-Lipschitz Maps by Invertible Neural Networks [3.7072693116122752]
Invertible Neural Network(INN)は、ディープニューラルネットワークアーキテクチャの重要なクラスである。
コンパクト領域上でのバイリプシッツ連続写像を近似するために,結合型 INN のクラスが持つキャパシティを解析する。
我々は、前方と逆写像を同時に近似する無限次元空間上の双Lipschitz写像を近似するアプローチを開発する。
論文 参考訳(メタデータ) (2023-08-18T08:01:45Z) - Stochastic Nested Compositional Bi-level Optimization for Robust Feature
Learning [11.236838268731804]
ネストされた二段階最適化問題を解くアルゴリズムを開発し,解析する。
提案アルゴリズムは,行列複雑性やミニバッチに依存しない。
論文 参考訳(メタデータ) (2023-07-11T15:52:04Z) - On Single-Objective Sub-Graph-Based Mutation for Solving the
Bi-Objective Minimum Spanning Tree Problem [0.0]
我々は、進化的計算を取り入れた$mathcalNP$-hard multi-objective least- spanning tree problem (moMST)の効率的な近似に寄与する。
得られた知見に基づいて、高バイアスのサブグラフベースの突然変異演算子を設計する。
その結果,サブグラフベースの演算子が文献のベースラインアルゴリズムに勝っていることを確認した。
論文 参考訳(メタデータ) (2023-05-31T22:35:17Z) - Reinforcement Learning from Partial Observation: Linear Function Approximation with Provable Sample Efficiency [111.83670279016599]
部分観察決定過程(POMDP)の無限観測および状態空間を用いた強化学習について検討した。
線形構造をもつPOMDPのクラスに対する部分可観測性と関数近似の最初の試みを行う。
論文 参考訳(メタデータ) (2022-04-20T21:15:38Z) - Controlling the Complexity and Lipschitz Constant improves polynomial
nets [55.121200972539114]
多項式ネットの結合CP分解(CCP)モデルとNested Coupled CP分解(NCP)モデルに対する新しい複雑性境界を導出する。
本研究では、6つのデータセットで実験的に評価し、モデルが逆摂動に対して頑健であるとともに精度も向上することを示す。
論文 参考訳(メタデータ) (2022-02-10T14:54:29Z) - Dist2Cycle: A Simplicial Neural Network for Homology Localization [66.15805004725809]
単純複体は多方向順序関係を明示的にエンコードするグラフの高次元一般化と見なすことができる。
単体錯体の$k$-homological特徴によってパラメータ化された関数のグラフ畳み込みモデルを提案する。
論文 参考訳(メタデータ) (2021-10-28T14:59:41Z) - Convex Geometry and Duality of Over-parameterized Neural Networks [70.15611146583068]
有限幅2層ReLUネットワークの解析のための凸解析手法を開発した。
正規化学習問題に対する最適解が凸集合の極点として特徴づけられることを示す。
高次元では、トレーニング問題は無限に多くの制約を持つ有限次元凸問題としてキャストできることが示される。
論文 参考訳(メタデータ) (2020-02-25T23:05:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。