論文の概要: On the Connection Between Riemann Hypothesis and a Special Class of
Neural Networks
- arxiv url: http://arxiv.org/abs/2309.09171v1
- Date: Sun, 17 Sep 2023 05:50:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 17:00:43.865200
- Title: On the Connection Between Riemann Hypothesis and a Special Class of
Neural Networks
- Title(参考訳): リーマン仮説とニューラルネットワークの特殊クラスとの関係について
- Authors: Soufiane Hayou
- Abstract要約: 我々は、Nyman-Beurling criterionとして知られるRHの古い解析基準を再検討し、拡張する。
このメモはRHに馴染みのない聴衆のためのものです。
- 参考スコア(独自算出の注目度): 6.019182604573028
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Riemann hypothesis (RH) is a long-standing open problem in mathematics.
It conjectures that non-trivial zeros of the zeta function all have real part
equal to 1/2. The extent of the consequences of RH is far-reaching and touches
a wide spectrum of topics including the distribution of prime numbers, the
growth of arithmetic functions, the growth of Euler totient, etc. In this note,
we revisit and extend an old analytic criterion of the RH known as the
Nyman-Beurling criterion which connects the RH to a minimization problem that
involves a special class of neural networks. This note is intended for an
audience unfamiliar with RH. A gentle introduction to RH is provided.
- Abstract(参考訳): リーマン予想 (RH) は数学における長年の開問題である。
ゼータ函数の非自明な零点はすべて実部が 1/2 に等しいと推測する。
RH の結果の程度は遠く離れており、素数の分布、算術関数の成長、オイラートーティエントの成長など幅広いトピックに触れている。
本稿では、ニューラルネットワークの特殊なクラスを含む最小化問題にRHを接続するNyman-Beurling criterionとして知られるRHの古い分析基準を再検討し、拡張する。
このメモはRHに馴染みのない聴衆のためのものです。
RHの穏やかな導入が提供される。
関連論文リスト
- RiemannONets: Interpretable Neural Operators for Riemann Problems [1.6874375111244329]
我々は、超圧力ジャンプのために圧縮性流れで発生する問題を解くために、ニューラル演算子を用いる。
DeepONetの簡単な変更は、その正確性、効率、堅牢性に大きな影響を与えます。
論文 参考訳(メタデータ) (2024-01-16T23:45:14Z) - Differentially Private Non-convex Learning for Multi-layer Neural
Networks [35.24835396398768]
本稿では,単一出力ノードを持つ(多層)完全連結ニューラルネットワークに対する差分的タンジェント最適化の問題に焦点をあてる。
ニューラルカーネル理論の最近の進歩を利用して、サンプルサイズとネットワーク幅の両方が十分に大きい場合に、最初の過剰人口リスクを提供する。
論文 参考訳(メタデータ) (2023-10-12T15:48:14Z) - Curvature-Independent Last-Iterate Convergence for Games on Riemannian
Manifolds [77.4346324549323]
本研究では, 多様体の曲率に依存しないステップサイズが, 曲率非依存かつ直線的最終点収束率を達成することを示す。
我々の知る限りでは、曲率非依存率や/または最終点収束の可能性はこれまでに検討されていない。
論文 参考訳(メタデータ) (2023-06-29T01:20:44Z) - Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - Learning Low Dimensional State Spaces with Overparameterized Recurrent
Neural Nets [57.06026574261203]
我々は、長期記憶をモデル化できる低次元状態空間を学習するための理論的証拠を提供する。
実験は、線形RNNと非線形RNNの両方で低次元状態空間を学習することで、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2022-10-25T14:45:15Z) - A singular Riemannian geometry approach to Deep Neural Networks I.
Theoretical foundations [77.86290991564829]
ディープニューラルネットワークは、音声認識、機械翻訳、画像解析など、いくつかの科学領域で複雑な問題を解決するために広く使われている。
我々は、リーマン計量を備えた列の最後の多様体で、多様体間の写像の特定の列を研究する。
このようなシーケンスのマップの理論的性質について検討し、最終的に実践的な関心を持つニューラルネットワークの実装間のマップのケースに焦点を当てる。
論文 参考訳(メタデータ) (2021-12-17T11:43:30Z) - Nonperturbative renormalization for the neural network-QFT
correspondence [0.0]
この文脈で局所性とパワーカウンティングの概念を考察する。
Wetterich-Morris方程式を用いて非摂動的再正規化群を解析する。
我々の目的は、大きな幅の限界を超えたニューラルネットワークの振る舞いを調査するための有用なフォーマリズムを提供することである。
論文 参考訳(メタデータ) (2021-08-03T10:36:04Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - Bayesian Quadrature on Riemannian Data Manifolds [79.71142807798284]
データに固有の非線形幾何学構造をモデル化する原則的な方法が提供される。
しかし、これらの演算は通常計算的に要求される。
特に、正規法則上の積分を数値計算するためにベイズ二次(bq)に焦点を当てる。
先行知識と活発な探索手法を両立させることで,BQは必要な評価回数を大幅に削減できることを示す。
論文 参考訳(メタデータ) (2021-02-12T17:38:04Z) - Infinite-channel deep stable convolutional neural networks [2.7561479348365734]
本稿では、ディープフィードフォワード畳み込みNNの一般的な文脈におけるA1除去の問題について考察する。
本研究では, 深層フィードフォワード畳み込みNNの無限チャネル限界が, 安定な有限次元分布をもつプロセスであることを示す。
論文 参考訳(メタデータ) (2021-02-07T08:12:46Z) - Approximation of BV functions by neural networks: A regularity theory
approach [0.0]
我々は、単位円上にReLU活性化関数を持つ単一の隠れ層ニューラルネットワークによる関数の近似を懸念する。
まず,ペナリゼーションを伴うコスト関数に関連する勾配流の平衡への収束について検討した。
ペナリゼーションが有界な重みをバイアスするので、有界な重みを持つネットワークが有界な変動の与えられた関数をいかによく近似できるかを研究できる。
論文 参考訳(メタデータ) (2020-12-15T13:58:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。